32 resultados para Paradigmas
em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul
Resumo:
Este trabalho analisa a arquitetura do MAM - Museu de Arte Moderna do Rio de Janeiro - e MASP - Museu de Arte de São Paulo - a partir do estudo da história da arquitetura dos museus desde a sua fundação no século XVIII e da análise dos condicionantes que distinguem e particularizam esses edifícios. A moderna arquitetura brasileira, geradora dos princípios de projeto que geraram esses dois museus, mereceu um capítulo próprio. Para um melhor entendimento da arquitetura desses dois museus brasileiros, são abordados os aspectos históricos de suas construções, suas inserções urbanas, funcionalidade, estrutura, materiais e técnicas construtivas, além do seu papel na história da arquitetura brasileira. Em anexo, apresentam-se os traços biográficos de seus arquitetos, Affonso Eduardo Reidy e Lina Bo Bardi, respectivamente, e um breve estudo sobre condicionantes museológicos. Isso fundamenta a análise e pode servir como guia de referência para estudo ou elaboração de projetos de museus.
Resumo:
Esta tese apresenta contribuições ao processo de Descoberta de Conhecimento em Bases de Dados (DCBD). DCBD pode ser entendido como um conjunto de técnicas automatizadas – ou semi-automatizadas – otimizadas para extrair conhecimento a partir de grandes bases de dados. Assim, o já, de longa data, praticado processo de descoberta de conhecimento passa a contar com aprimoramentos que o tornam mais fácil de ser realizado. A partir dessa visão, bem conhecidos algoritmos de Estatística e de Aprendizado de Máquina passam a funcionar com desempenho aceitável sobre bases de dados cada vez maiores. Da mesma forma, tarefas como coleta, limpeza e transformação de dados e seleção de atributos, parâmetros e modelos recebem um suporte que facilita cada vez mais a sua execução. A contribuição principal desta tese consiste na aplicação dessa visão para a otimização da descoberta de conhecimento a partir de dados não-classificados. Adicionalmente, são apresentadas algumas contribuições sobre o Modelo Neural Combinatório (MNC), um sistema híbrido neurossimbólico para classificação que elegemos como foco de trabalho. Quanto à principal contribuição, percebeu-se que a descoberta de conhecimento a partir de dados não-classificados, em geral, é dividida em dois subprocessos: identificação de agrupamentos (aprendizado não-supervisionado) seguida de classificação (aprendizado supervisionado). Esses subprocessos correspondem às tarefas de rotulagem dos itens de dados e obtenção das correlações entre os atributos da entrada e os rótulos. Não encontramos outra razão para que haja essa separação que as limitações inerentes aos algoritmos específicos. Uma dessas limitações, por exemplo, é a necessidade de iteração de muitos deles buscando a convergência para um determinado modelo. Isto obriga a que o algoritmo realize várias leituras da base de dados, o que, para Mineração de Dados, é proibitivo. A partir dos avanços em DCBD, particularmente com o desenvolvimento de algoritmos de aprendizado que realizam sua tarefa em apenas uma leitura dos dados, fica evidente a possibilidade de se reduzir o número de acessos na realização do processo completo. Nossa contribuição, nesse caso, se materializa na proposta de uma estrutura de trabalho para integração dos dois paradigmas e a implementação de um protótipo dessa estrutura utilizando-se os algoritmos de aprendizado ART1, para identificação de agrupamentos, e MNC, para a tarefa de classificação. É também apresentada uma aplicação no mapeamento de áreas homogêneas de plantio de trigo no Brasil, de 1975 a 1999. Com relação às contribuições sobre o MNC são apresentados: (a) uma variante do algoritmo de treinamento que permite uma redução significativa do tamanho do modelo após o aprendizado; (b) um estudo sobre a redução da complexidade do modelo com o uso de máquinas de comitê; (c) uma técnica, usando o método do envoltório, para poda controlada do modelo final e (d) uma abordagem para tratamento de inconsistências e perda de conhecimento que podem ocorrer na construção do modelo.
Resumo:
O presente trabalho tem por objetivo o estudo da arquitetura da Refinaria Alberto Pasqualini, que apresenta composição e linguagem modernas e é um dos edifícios pioneiros no uso de pré-moldados no Brasil. Primeiramente, analisa a Arquitetura Moderna européia, identificando suas características gerais, através dos exemplos dos grandes mestres (Gropius, Le Corbusier e Mies van der Rohe), enfocando principalmente a obra de Mies. A seguir, estuda a influência que estas arquiteturas tiveram no Brasil. Finalmente, demonstra o reflexo destas idéias no conjunto de edifícios da Refinaria Alberto Pasqualini, que mostra forte influência da arquitetura de Mies van der Rohe.
Resumo:
As empresas rompem seus paradigmas porque a competitividade as obriga a isso em função do mundo globalizado, no qual estão inseridas hoje. Para uma empresa que vive nesse contexto, a tecnologia da informação é uma ferramenta auxiliar no processo de gerenciamento e tratamento das mesmas. Os Sistemas Gerenciais de Gestão Empresarial (ERP's) estão ajudando a suprir as carências demandadas pelas empresas no sentido de fazerem frente ao contexto atual. Mesmo assim, com tecnologias a ajudá- las, são as pessoas (gestores e equipe), as implementadoras desses sistemas. Tais sistemas em função da velocidade de implantação, fazem com que os gestores sofram demasiado peso de responsabilidades, pois não são suficientemente preparados para serem "coachs", ou seja, ensinarem sua equipe e participarem com a mesma, dos processos de transformações. Além disso, sofrem todos em função de que as atividades diárias da empresa não param diante de tais trans formações, gerando ao mesmo tempo dificuldades e embates naturais para serem administrados. Neste contexto a influência do gestor na mudança, competência que interessa neste estudo, é peça importante para a condução desse processo. Os objetivos que permearam esta pesquisa se baseiam na questão de como os gestores podem influenciar no nível de participação das pessoas num processo de mudança. No caso abordado, observa-se que em função dos problemas relatados na empresa em estudo, houve má condução na impleme ntação, causada pelo nível de envolvimento apresentado pelas pessoas não ter sido o suficiente. Para o levantamento dos dados utilizou-se fonte múltipla de coleta como observação participante, questionário, registros em arquivos e documentos. A análise foi efetuada com base nos dados coletados e no referencial teórico constante neste estudo. O resultado da análise apresentou 10 pontos críticos os quais estão compostos nos seguintes grandes enfoques: processo decisório, condução, desenvolvimento, cronograma do projeto e pessoas na organização. Para estes pontos críticos foram elaboradas sugestões, tais como políticas de envolvimento e comprometimento, visando através destas a construção de um referencial exploratório para futuras ações da organização em estudo.
Resumo:
Quando uma empresa de serviço decide aperfeiçoar suas operações, freqüentemente depara-se com um grande desafio no desenho de sistemas de gerenciamento e na implementação de técnicas que lhe permitam avaliar a sua performance. A aplicação de enfoques de gerenciamento inspirados em empresas de manufatura tem se revelado um consistente meio para a aquisição de melhores níveis de qualidade, produtividade e competitividade nestas empresas. Todavia, a questão central para o sucesso destas abordagens reside na busca de instrumentos que permitam a superação da informalidade e da falta de padronização que, com freqüência, caracterizam as empresas de serviço. Este estudo objetiva lidar com esta questão demonstrando a problemática e os desafios encontrados no desenvolvimento e implantação de um software destinado ao gerenciamento de produção em uma empresa prestadora de serviços. Especificamente, busca-se demonstrar a viabilidade e a relevância da utilização de paradigmas e técnicas de gestão da manufatura na administração de empresas de serviço que tenham uma significativa porção de “back-office” nas suas operações.
Resumo:
Tolerância a falhas é um dos aspectos mais importantes a serem considerados no desenvolvimento de aplicações, especialmente com a participação cada vez maior de sistemas computacionais em áreas vitais da atividade humana. Dentro deste cenário, um dos fatores a serem considerados na persecução deste objetivo é o gerenciamento de atomicidade. Esta propriedade, por sua vez, apresenta duas vertentes principais: o controle de concorrência e a recuperação de estados. Considerando-se a tolerância a falhas e, particularmente, a atomicidade como requisitos com alto grau de recorrência em aplicações, verifica-se a importância de sua reutilização de forma simples e transparente e do estudo de meios de prover tal capacidade. O presente trabalho procurou pesquisar e aplicar meios de produzir soluções reutilizáveis para implementação de programas tolerantes a falhas, mais especificamente de técnicas de controle de atomicidade, utilizando vários paradigmas computacionais. Neste intuito, foram pesquisados mecanismos de introdução de atomicidade em aplicações e suas respectivas demandas, para então extrair critérios de análise dos paradigmas a serem utilizados na implementações das soluções. Buscou-se suporte nestes paradigmas às demandas previamente pesquisadas nos mecanismos de gerenciamento de atomicidade e procurou-se chegar a soluções reutilizáveis mantendo simplicidade de uso, possibilidade de alteração dinâmica, transparência, adaptabilidade e velocidade de desenvolvimento. Devido à existência de uma grande diversidade de situações que requerem diferentes implementações de atomicidade, alguns cenários típicos foram selecionados para aplicação e avaliação das técnicas aqui sugeridas, procurando abranger o maior número possível de possibilidades. Desta maneira, este trabalho comparou situações opostas quanto à concorrência pelos dados, implementando cenários onde ocorrem tanto acesso cooperativo quanto competitivo aos dados. Dentro de cada um dos cenários estudados, buscaram-se situações propícias ao emprego das características dos paradigmas e analisou-se o resultado de sua aplicação quanto aos critérios definidos anteriormente. Várias soluções foram analisadas e comparadas. Além dos mecanismos de gerenciamento de atomicidade, também foram estudados vários paradigmas que pudessem ser empregados na implementação de soluções com alto grau de reutilização e adaptabilidade. As análises e sugestões posteriores às implementações serviram como substrato para conclusões e sugestões sobre a melhor maneira de empregar tais soluções nos cenários atômicos estudados. Com isso, foi possível relacionar características e capacidades de cada paradigma com a melhor situação de demanda de atomicidade na qual os mesmos são aplicáveis, moldando uma linha de soluções que favoreçam sua reutilização. Um dos objetivos mais importantes do trabalho foi, entretanto, observar o funcionamento conjunto destes paradigmas, estudando como os mesmos podem atuar de forma simbiótica e de que forma os conceitos de um paradigma podem complementar os de outro.
Resumo:
Este texto apresenta um novo modelo multiparadigma orientado ao desenvolvimento de software distribuído, denominado Holoparadigma. O Holoparadigma possui uma semântica simples e distribuída. Sendo assim, estimula a modelagem subliminar da distribuição e sua exploração automática. A proposta é baseada em estudos relacionados com modelos multiparadigma, arquitetura de software, sistemas blackboard, sistemas distribuídos, mobilidade e grupos. Inicialmente, o texto descreve o modelo. Logo após, é apresentada a Hololinguagem, uma linguagem de programação que implementa os conceitos propostos pelo Holoparadigma. A linguagem integra os paradigmas em lógica, imperativo e orientado a objetos. Além disso, utiliza um modelo de coordenação que suporta invocações implícitas (blackboard) e explícitas (mensagens). A Hololinguagem suporta ainda, concorrência, modularidade, mobilidade e encapsulamento de blackboards em tipos abstratos de dados. Finalmente, o texto descreve a implementação da Holoplataforma, ou seja, uma plataforma de desenvolvimento e execução para a Hololinguagem. A Holoplataforma é composta de três partes: uma ferramenta de conversão de programas da Hololinguagem para Java (ferramenta HoloJava), um ambiente de desenvolvimento integrado (ambiente HoloEnv) e um plataforma de execução distribuída (plataforma DHolo).
Resumo:
Esta pesquisa refere-se a um estudo experimental conduzido com o objetivo de diminuir o comportamento agressivo de adolescentes na escola, combinando dois paradigmas: o modelo cognitivo desenvolvimental de Kohlberg e a teoria da aprendizagem social de Bandura. Isto foi operacionalizado na técnica de intervenção que combinam elementos das discussões de dilemas desenvolvidos por Blatt e Kohlberg com o modelo de papéis, enfatizando a discussão do líder e personagens dos dilemas. Foi hipotetizado que uma combinação entre os dilemas morais tradicionais com outros novos, que propõem soluções pacíficas versus soluções agressivas (e que foram especialmente criados para este estudo), poderiam levar a um alto decréscimo no comportamento agressivo e aumento na maturidade de julgamento moral nestes adolescentes. Os participantes eram 44 adolescentes, com idades entre 12 e 18 anos, que foram pré e pós testados através do Moral Judgment Interview, de Kohlberg, e pelo Teachers Report Form, de Achenbach (com a adaptação Brasileira ainda em andamento, realizada por Silvares e cols.). Os resultados apontam para poucos resultados estatísticos significantes, mas uma análise qualitativa de conteúdo mais acurada foi realizada na discussão, revelando ganhos interessantes tanto na maturidade de julgamento moral quanto nas reflexões sobre paz e violência.
Resumo:
A tese Lógicas subjacentes à formação do professor para a escolaridade inicial tem origem na experiência profissional do pesquisador enquanto docente formador de professores. É o resultado do trabalho de pesquisa desenvolvido junto a instituições educacionais de nível médio e superior, situadas na Região do Alto Uruguai gaúcho, que atuam na formação de professores para a escolaridade inicial ou, hoje, anos iniciais do ensino fundamental. Parte-se do entendimento de que os processos educacionais institucionalizados correspondem sempre a determinações sócio-políticas hegemônicas, da compreensão das racionalidades orientadoras da formação de professores inseridas no contexto histórico mais amplo que caracterizou a sociedade brasileira ao longo dos últimos cinqüenta anos do século XX. Assim, no quadro de uma contextualização sócio-geográfica da Região, foram coletados e analisados, a partir de entrevistas, reportagens e artigos de jornais e documentos oficiais, dados significativos sobre a história e a atuação dessas escolas, tendo como pano de fundo a situação das Escolas Normais do Rio Grande do Sul e do Brasil no mesmo penodo investigado A pesquisa, de caráter exploratório, teve como foco principal a análise das racionalidadesllógicas que têm presidido a formação de professores nas instituições envolvidas, sem, contudo, ter havido perda da dimensão global mais ampla em que se desenvolvem tais processos. O estudo foi conduzido em duas perspectivas: a histórica, que procura resgatar a trajetória das escolas de formação de professores naquela Região, entre sua criação e os anos noventa. As evidências recolhidas através de depoimentos dos pioneiros e da análise de documentos legais e artigos jomalísticos permitiram identificar o predomínio de racionalidade técnico-instrumental tanto nas concepções de educação, escola, identidade do professor, organização cunlcular quanto nas práticas de ensino e nas próprias condições de trabalho dos professores, assim como a forte presença de um ideário "moralizante" quanto ao papel e aos comportamentos esperados das futuras professoras. Também foi possível registrar o lento declínio da racionalidade técnico-instrumental ao final dos anos oitenta, resultante do avanço e disseminação das teorias críticas da educação e do próprio movimento social em prol da redemocratização do país. Em sua segunda perspectiva, o estudo voltou-se para a investigação da realidade das instituições formadoras da Região, a partir dos anos oitenta, incluindo neste espaço a formação em nível superior, proporcionada pelo Curso de Pedagogia na universidade, no sentido de explorar as possibilidades de incorporação da nova lógica de organização da educação de professores, fundada numa racionalidade emancipatória A análise do conjunto de dados recolhidos nas duas etapas do estudo foi conduzida a partir das seguintes subcategorias: escolha do curso, relação teoriaJprática no processo de formação e nas práticas docentes, fundamentos epistemológicos, desempenho docente, profissionalização e identidade docente. Este processo de análise crítica conduziu a algumas constatações importantes em relação à tese inicialmente proposta, ou seja, como as racionalidades determinaram os pressupostos teóricos e políticos e os rumos da formação profissional em cada momento histórico, traduzindo-se em mecanismos que reproduzem fielmente as grandes tendências sociais, políticas e ideológicas dominantes. Constatou-se, também, a dificuldade das instituições e dos próprios professores em abandonarem visões cristalizadas e assimilarem novos paradigmas de pensamento e ação. Esta perspectiva está demonstrada pelo fato de que, apesar do enfTaquecimento da racionalidade instrumental a partir dos anos oitenta, os educadores e as instituições formadoras dela não conseguiram libertar-se inteiramente neste início de um novo milênio. Por outro lado, foi possível perceber que a formação inicial ou continuada em nível superior, na universidade, possibilita maior e mais consistente aprofundamento teórico, permitindo aos docentes e futuros docentes a visão mais clara do sentido da profissão, do "fazer-se" e do "ser" educador como um agente compromissado no desenvolvimento de uma educação emancipatória, voltada para o desenvolvimento de uma sociedade mais justa para todos os cidadãos.
Resumo:
Este trabalho apresenta-se como investigação-ação em Educação Musical realizada por uma educadora em um contexto de classes populares, mais especificamente sobre o Projeto Música & Cidadania, ligado a ONG denominada CEAFIS (Centro de Apoio à Formação Integral do Ser) localizada na periferia da Grande Florianópolis. Reflete sobre a trajetória do Projeto dentro desta Organização, sua importância, crescimento e sua atuação dentro da comunidade. Seu foco principal centra-se na necessidade de uma reflexão sobre os processos de ensino-aprendizagem, dentro daquele contexto, na necessidade de uma Educação Musical que procurasse os significados na própria prática da comunidade, com vistas a uma atuação mais coerente em música e educação. Dentro desta perspectiva, o foco se colocou no Movimento, encarado no seu sentido mais amplo, ou seja, o movimento presente no lidar com a música dos moradores da comunidade, o movimento que a música sugere e o movimento através da mudança de paradigmas dos integrantes do Projeto no decorrer deste. Surgiu também da necessidade da reflexão sobre uma Educação Musical mais contextualizada, preocupada com a cultura e referências dos integrantes do Projeto. Os capítulos apresentados na estrutura da dissertação procuram dar uma noção de seqüência da construção do Projeto, seu surgimento, sua história, bem como os referenciais teóricos que serviram de base para essa reflexão, e os da sua reflexão em si.
Resumo:
(João Quevedo - Estudo do Processamento das Memórias de Curta e Longa Duração) - Este trabalho apresenta a compilação dos 4 principais experimentos carreados ao longo de 1999-2002: 3 deles envolvem o modelo animal e um quarto utilizase de voluntários humanos. Entretanto, o uso desses diferentes paradigmas não prejudica a unidade do conjunto. O Capítulo 1 apresenta sucintamente o marco teórico dos 4 trabalhos. Inicialmente são discutidos aspectos modulatórios da consolidação da memória. Após, alguns elementos da bioquímica da consolidação da memória são apresentados no intuito de permitir establecer um entendimento das vias da PKA e da MAPK e suas correlações com a via final comum – a síntese protéica. Adicionalmente, a dissociação STM e LTM é discutida a partir do referencial farmacológico. Uma última unidade apresenta conceitos primitivos do papel da amígdala na modulação da memória e das evidências da implicação das emoções, via amígdala, na modulação da memória em humanos. Os experimentos utilizando a esquiva inibitória como paradigma e o rato como sujeito ocupam os Capítulos 2, 3 e 4. No Capítulo 2 é apresentado um corpo de resultados que permite observar uma dissecção farmacológica da STM e LTM. Os dados demonstram um envolvimento de fenômenos dependentes de PKA em ambas STM e LTM, dependentes de MAPK apenas na STM, e dependentes de síntese protéica apenas na LTM. O Capítulo 3 apresenta um trabalho realizado em colaboração com o Prof. Steven P. R. Rose (Open University, UK), que envolve a determinação dos momentos sensíveis à inibição da síntese protéica na consolidação da LTM. Foram observados dois momentos: um inicial, junto ao treino, e um tardio apos 3h. Além disso, foi possível demonstrar que um treino prévio de baixa intensidade, mas não a pré-exposição ao aparato, pode impedir o estabelecimento de amnésia induzida pelo bloqueio da síntese protéica. O Capítulo 4 estende os achados com anisomicina observados no Capítulo 3, estudando também o inibidor da PKA, Rp-cAMPs, e o inibidor da MAPKK, PD 098059. Os dados obtidos confirmam também para essas cascatas a indução em um treino prévio de baixa intensidade de algum fenômeno celular de longa duração que torna o aprendizado de um segundo treino independente de PKA, MAPK ou síntese protéica. O estudo da dissociação da STM e LTM foi ampliado, agora no modelo humano, no experimento descrito no Capítulo 6. Nesse experimento, observamos uma clara influência do conteúdo emocional na LTM, mas a ausência desse efeito na STM. A discussão geral (Capítulo 7) busca integrar esses achados descritos nos capítulos anteriores dentro da nova perspectiva molecular da neurobiologia da memória. Além disso, abre discussão acerca de possíveis novas possibilidades de pesquisa.
Resumo:
Este trabalho analisa fatores que viabilizaram a implantação do Plano de Gestão pela Qualidade do Judiciário em algumas Unidades do Poder Judiciário do RS. Com base na teoria geral da administração, especialmente na teoria clássica, na burocracia e na teoria comportamental, em autores de obras sobre organizações que aprendem e em obras de W. Edwards Deming sobre a nova economia no governo, desenvolve-se essa pesquisa. O estudo analisa a implantação do Plano de Gestão, os resultados dos projetos-piloto e programa de adesão, como os atores do processo perceberam as mudanças ocorridas e como é definida a situação por aqueles que estão à margem dos acontecimentos por diferentes motivos, por meio da análise de documentos do acervo da organização, de dados coletados nas entrevistas com integrantes de Unidades com e sem implantação do gerenciamento da rotina, preconizado pelo modelo da Qualidade Total. Estabelece-se, assim, o quadro de aspectos determinantes na implantação do PGQJ, quais sejam: a estrutura da tarefa, as relações interpessoais e a liderança, o processo decisório e o comprometimento com a organização. Os resultados obtidos delineiam a percepção dos atores quanto ao processo de mudança e suas expectativas quanto à capacidade da organização de absorver novos modelos de gestão, acarretando, em determinados momentos, uma completa quebra de paradigmas. Demonstram, ainda, a distância existente entre a proposição do Plano de Gestão, quanto ao comportamento administrativo, ao desenvolvimento dos recursos humanos, ao envolvimento com o trabalho, e o que efetivamente se verifica nas Unidades da organização. Por fim, discute-se alternativa para a implantação de modelo de gestão baseado na Qualidade Total e na aprendizagem organizacional, sugerindo-se estudos mais aprofundados desses aspectos determinantes, com o objetivo de melhorar o desempenho do projeto em andamento.
Resumo:
O processo produtivo das organizações hospitalares necessita acompanhar as exigências estabelecidas pelos novos paradigmas da sociedade. Frente a esse desafio e considerando a complexidade dessas organizações, torna-se fundamental o uso de sistemas de informações que consigam reduzir o nível de incerteza dos processos decisórios. Este trabalho tem como objetivo aperfeiçoar a função de controle da gestão hospitalar, através da aplicação do método de custeio baseado em atividades, ou ABC (Activity-Based Costing), que busca melhor compreender o processo produtivo, para avaliar e custear, dando subsídios para a melhoria da eficiência econômica. Foram acompanhados pacientes internados com câncer de esôfago da especialidade de Cirurgia Geral de um hospital universitário. O desenvolvimento contou com a análise dos processos, identificação dos recursos envolvidos, direcionadores primários e secundários, que permitiram a apuração do custo por paciente e a análise de valor agregado (AVA). Do processo de internação, o estudo identificou 9 subprocessos (Admissão, Anamnese e Exame Físico, Prescrição pré-cirúrgica, Prescrição pós-cirúrgica, Diagnóstico, Reavaliação médica, Operação Cirúrgica, Prescrição de alta e Suporte ao 18 leito). Para cada subprocesso, avaliaram-se quais recursos da estrutura do hospital foram empregados, de forma a quantificar a participação de cada um nos respectivos subprocessos, através dos direcionadores primários. Definidos os recursos e sua participação, a fase seguinte foi verificar em que medida os recursos foram empregados pelas atividades durante o atendimento ao paciente. A partir da análise de processos, as atividades foram identificadas, sendo estabelecido um indicador que mensurasse o uso da atividade pelo paciente, os direcionadores secundários. Os resultados indicam que o ABC oferece níveis de detalhamento do processo de prestação de serviço hospitalar mais elevados do que nos sistemas tradicionais de custos e consegue perceber melhor o uso dos recursos durante o atendimento, em conseqüência, auferindo o custo de cada paciente com maior precisão. Além disso, permite a análise de valor agregado de todo o processo produtivo, auxiliando a organização a atingir os objetivos e permitindo enfrentar em melhores condições as alterações no ambiente interno e externo. Na medicina é dito que cada paciente é um caso, porque, ainda que a ciência tenha avançado muito nos últimos anos, as características pessoais e as reações a cada ação médica encontram uma variabilidade muito grande. No ABC, cada paciente passa a ser um objeto de custo, que absorverá os recursos necessários à conduta a ser seguida, permitindo melhor avaliar e controlar o desempenho do processo produtivo e auxiliando no processo decisório.
Resumo:
O isolamento geográfico sempre representou um grande obstáculo ao crescimento e desenvolvimento econômico de regiões afastadas dos principais circuitos produtivos, relegando a tais regiões um papel secundário na produção nacional. Alterações nos paradigmas produtivos e melhorias nos sistemas de transportes, nos últimos anos, diminuíram as distâncias entre estados como Mato Grosso e o resto do mundo. A sociedade local, entretanto, ainda encontra-se em fase de transição de uma forte dependência das atividades agrícolas para uma industrialização ainda incipiente. Nesse contexto é de grande importância o desempenho da agroindústria local para o desenvolvimento regional. O objetivo deste trabalho é, num primeiro momento, identificar e descrever a capacidade e demandas tecnológicas de empresas do segmento da agroindústria de alimentos da região da Baixada Cuiabana, no Estado de Mato Grosso. Num segundo momento pretende-se verificar em que medida a produção científica e tecnológica das universidades pode solucionar os problemas tecnológicos identificados nas empresas. A pesquisa foi realizada com sete empresas legalmente formalizadas, que se disponibilizaram a participar do trabalho, nos setores de laticínios, frigoríficos, bebidas, processamento de soja e produção de derivados de guaraná, de um lado, e com as duas universidades locais, do outro. Os resultados demonstram que as empresas, apesar de possuírem uma função de engenharia, que acumula a gestão das áreas de produto e processo, possuem uma capacidade limitada a tentar dominar a tecnologia adquirida externamente, advindo daí suas principais demandas tecnológicas. As universidades locais, devido às suas várias deficiências estruturais, podem oferecer respostas limitadas aos problemas tecnológicos apresentados pelas empresas.
Resumo:
A estimulação neonatal tem sido utilizada como modelo experimental para examinar os mecanismos pelos quais variações precoces do ambiente do animal afetam o desenvolvimento de sistemas neurais, dando origem a alterações comportamentais e neuroendócrinas duradouras. Buscou-se estudar os efeitos do estresse neonatal sobre duas abordagens: comportamental e imunoistoquímica. Na primeira, foram avaliados em ratos adultos (90-110 dias) dois paradigmas de medo: inato (campo aberto, N=48) e aprendido, (condicionamento clássico N=48); enquanto na segunda abordagem realizou-se a técnica imunoistoquímica (N=15) na substância nigra compacta (SNCo) e área tegmental ventral (VTA) para detecção da enzima precursora da dopamina, a tirosina hidroxilase (TH). Foram utilizados ratos da variedade Wistar, que do 1º ao 10º dia de vida foram submetidos a 3 tipos de intervenção: manipulação (retirados do ninho por 3min sendo tocados gentilmente por 1 min); separação (retirados do ninho por 3h, e mantidos a temperatura de 33ºC); e grupo controle (sem intervenções do experimentador ou do tratador). O condicionamento clássico (treino) foi constituído por 10 pareamentos de 1 estímulo incondicionado (EI, choque elétrico –0,8mA) com 2 estímulos condicionados ou neutros (EC, som e luz) em 2 sessões de 5 pareamentos cada. A duração de cada emissão do EC foi de 5s sendo no último segundo associada ao EI. O teste foi realizado 24h após o treino, e consistiu de emissões de EC com mesma duração e intervalo por um período total de 30 min. No experimento 2, foi utilizado um campo aberto de 1m2 no qual os ratos permaneceram por 5 min. Em ambos experimentos os comportamentos eram registrados em vídeo e analisados através do programa Noldus. Os resultados (X±EPM) foram analisados por uma ANOVA, post-hoc Newman Keuls ou Kruskal Wallis post-hoc Dunn (p<0,05). Nos experimentos comportamentais foram observados os seguintes resultados: no medo aprendido houve diminuição da duração (s) do comportamento de imobilização (491±54); da duração de rearing (58±13) e da latência para extinção do condicionamento do grupo manipulado (591±434) comparado ao controle (718±73; 22±6; 1020±843 respectivamente) e no campo aberto houve aumento da duração e freqüência da locomoção e rearing (97.6±8; 4.3±1 e 64.3±5; 31±2), diminuição da duração de autolimpeza (4.2±1) e aumento da freqüência de entradas no centro do campo aberto (4.3±0,8) no grupo manipulado comparado ao controle (69±7; 30±3 e 48±6; 21.5±2; 19±5; 2.2±0.6, respectivamente). Na análise Imunoistoquímica não foram detectadas diferenças significativas entre os grupos quanto imunomarcação de TH nas áreas estudadas. Foi confirmada a diminuição da inibição comportamental no campo aberto como conseqüência da manipulação. A manipulação neonatal também reduziu as respostas do medo condicionado, ratos manipulados no período neonatal expressam, quando adultos, menor expressão de medo aprendido e tem a extinção da aprendizagem aversiva mais acelerada. Curiosamente não foram observados efeitos da separação materna sobre as repostas de medo inato ou aprendido. Embora a dopamina do sistema mesocorticolímbico module as respostas comportamentais alteradas, nenhum dos modelos de intervenção estudados afetaram a intensidade de marcação deste neurotransmissor.