32 resultados para Experimentação

em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul


Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo desta dissertação é a paralelização e a avaliação do desempenho de alguns métodos de resolução de sistemas lineares esparsos. O DECK foi utilizado para implementação dos métodos em um cluster de PCs. A presente pesquisa é motivada pela vasta utilização de Sistemas de Equações Lineares em várias áreas científicas, especialmente, na modelagem de fenômenos físicos através de Equações Diferenciais Parciais (EDPs). Nessa área, têm sido desenvolvidas pesquisas pelo GMC-PAD – Grupo de Matemática da Computação e Processamento de Alto Desempenho da UFRGS, para as quais esse trabalho vem contribuindo. Outro fator de motivação para a realização dessa pesquisa é a disponibilidade de um cluster de PCs no Instituto de Informática e do ambiente de programação paralela DECK – Distributed Execution and Communication Kernel. O DECK possibilita a programação em ambientes paralelos com memória distribuída e/ou compartilhada. Ele está sendo desenvolvido pelo grupo de pesquisas GPPD – Grupo de Processamento Paralelo e Distribuído e com a paralelização dos métodos, nesse ambiente, objetiva-se também validar seu funcionamento e avaliar seu potencial e seu desempenho. Os sistemas lineares originados pela discretização de EDPs têm, em geral, como características a esparsidade e a numerosa quantidade de incógnitas. Devido ao porte dos sistemas, para a resolução é necessária grande quantidade de memória e velocidade de processamento, característicos de computações de alto desempenho. Dois métodos de resolução foram estudados e paralelizados, um da classe dos métodos diretos, o Algoritmo de Thomas e outro da classe dos iterativos, o Gradiente Conjugado. A forma de paralelizar um método é completamente diferente do outro. Isso porque o método iterativo é formado por operações básicas de álgebra linear, e o método direto é formado por operações elementares entre linhas e colunas da matriz dos coeficientes do sistema linear. Isso permitiu a investigação e experimentação de formas distintas de paralelismo. Do método do Gradiente Conjugado, foram feitas a versão sem précondicionamento e versões pré-condicionadas com o pré-condicionador Diagonal e com o pré-condicionador Polinomial. Do Algoritmo de Thomas, devido a sua formulação, somente a versão básica foi feita. Após a paralelização dos métodos de resolução, avaliou-se o desempenho dos algoritmos paralelos no cluster, através da realização de medidas do tempo de execução e foram calculados o speedup e a eficiência. As medidas empíricas foram realizadas com variações na ordem dos sistemas resolvidos e no número de nodos utilizados do cluster. Essa avaliação também envolveu a comparação entre as complexidades dos algoritmos seqüenciais e a complexidade dos algoritmos paralelos dos métodos. Esta pesquisa demonstra o desempenho de métodos de resolução de sistemas lineares esparsos em um ambiente de alto desempenho, bem como as potencialidades do DECK. Aplicações que envolvam a resolução desses sistemas podem ser realizadas no cluster, a partir do que já foi desenvolvido, bem como, a investigação de précondicionadores, comparação do desempenho com outros métodos de resolução e paralelização dos métodos com outras ferramentas possibilitando uma melhor avaliação do DECK.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação analisa potencialidades de uso da ferramenta de simulação computacional em atividades de um Armazém Geral. Para tanto, foi realizado um estudo de caso em um Armazém Geral onde se aplicou a ferramenta segundo o método de desenvolvimento de projetos de simulação computacional proposto por Barrônio (2000). O desenvolvimento do projeto de simulação foi, então, focado na atividade de apanha separação, integrante do sub-processo de separação de pedidos. O substrato teórico utilizado envolve uma abordagem sobre a logística e caracterização de armazém geral, bem como uma revisão dos conceitos principais da ferramenta de simulação computacional. No desenvolvimento da pesquisa, identificaram-se diversas aplicações da simulação tanto no armazém geral e terminais de cargas da empresa, quanto na análise da malha de rotas da empresa. A partir da análise dos resultados da simulação, em diversos cenários desenvolvidos e do entendimento sistêmico da situação em estudo, identificou-se como oportunidade de melhoria a definição de horários fixos de parada para descanso ao longo da jornada de trabalho na atividade de apanha separação O desenvolvimento do projeto de simulação computacional contribuiu como instrumento de aprendizagem e tomada de decisões sobre a realidade organizacional. Através de experimentação no modelo computacional o grupo de trabalho pôde testar e mudar seus pressupostos e sua compreensão do mundo real, aprimorando a aprendizagem. Identificou-se ainda, que os armazéns gerais dotados de sistema de gerenciamento automatizado apresentam um grande potencial para desenvolvimento de projetos de simulação, principalmente, devido à disponibilidade de dados característicos destas organizações.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A busca de rendimentos elevados na cultura da soja, pressupõe o entendimento dos fatores responsáveis pela variabilidade dos parâmetros de planta que contribuem para o rendimento, e o desenvolvimento de metodologias para a avaliação destes parâmetros, em condições de lavoura. Como objetivos, o presente trabalho procurou estudar metodologias para a determinação do potencial de rendimento da soja durante a ontogenia, e avaliar a variabilidade existente em comunidades, por técnicas de geoestatística. Experimentos foram realizados na Estação Experimental Agronômica da Universidade Federal do Rio Grande do Sul (EEA/UFRGS), localizada em Eldorado do Sul, RS, no período de 1996 a 2001. Parte do trabalho enfocou a determinação do potencial de rendimento da soja durante a ontogenia. Para que se possa elevar o rendimento é necessário entender o comportamento do potencial. Para tanto, utilizou-se metodologias baseadas na quantificação das estruturas reprodutivas da soja, com acompanhamento temporal de cultivares diferenciadas, durante a ontogenia. Outra etapa experimental constou da análise espacial e temporal da produção de grãos e seus componentes, em uma comunidade de plantas de soja, manejada como uma lavoura comercial. Nesta última utilizou-se, além de técnicas estatísticas usualmente empregadas na experimentação agrícola, procedimentos de geoestatística para a caracterização da variabilidade espacial e temporal presentes na área O trabalho demonstrou a existência de padrões similares entre cultivares e anos, para o potencial de rendimento e sua perda durante a ontogenia. Também evidenciou que é possível determinar a variabilidade espacial e temporal de comunidades de soja, mesmo trabalhando-se em nível de planta, e a capacidade das técnicas geoestatísticas em auxiliar na visualização de tal variabilidade. As técnicas empregadas podem servir de base para estudos aplicados, onde sua utilização pode ser uma ferramenta importante no manejo de áreas onde se busca maior precisão na agricultura, para aumentar o rendimento de grãos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Pacientes diabéticos apresentam maior risco de depressão e o tratamento com antidepressivos melhora o controle glicêmico. O envolvimento do GABA na etiologia da depressão tem sido estudado e, coincidentemente, esse neurotransmissor está diminuído no pâncreas de ratos diabéticos induzidos por estreptozotocina . Assim sendo, o objetivo foi estudar o efeito de antidepressivos sobre a glicemia e a insulinemia de ratos diabéticos por estreptozotocina, bem como as alterações centrais de glicose, pelo emprego de um agente GABAérgico. Avaliou-se também a concentração do GABA no teste do nado forçado. Ratos Wistar, não diabéticos e diabéticos por estreptozotocina, foram tratados com imipramina, moclobemina, fluoxetina, sertralina e clonazepam. Após mensurada a glicemia de jejum se administrou sobrecarga de glicose, com coletas de sangue a cada 30 min. Dentre os antidepressivos testados, fluoxetina e moclobemida aumentaram a glicemia pós-prandial, enquanto sertralina reduziu tanto a glicemia de jejum quanto a pós-prandial. A coleta de sangue de animais não diabéticos aos 60 min revelou que a redução da glicemia pela sertralina foi acompanhada de aumento significativo dos níveis de insulina após a sobrecarga de glicose. As alterações de glicose central pelo emprego de clonazepam, um agente GABAérgico com propriedades antidepressivas, bem como as alterações na concentração do GABA no estriado de ratos submetidos ao teste da natação forçada eram avaliados in vivo por técnica de microdiálise. Previamente ao dia de experimentação era realizada cirurgia estereotáxica para implantação de cânula-guia no núcleo estriado dos ratos. As alterações in vivo da glicose eram observadas em todos os animais na caixa de livre movimentação, ao passo que os níveis extracelulares de GABA eram determinados no estriado de ratos durante e após o teste do nado forçado. Clonazepam não alterou a glicemia de jejum ou pós-prandial de ratos diabéticos e não diabéticos, porém aumentou a concentração de glicose extracelular no estriado desses animais. Quando submetidos ao teste da natação forçada, os ratos diabéticos apresentaram maior tempo de imobilidade e retardo no incremento da concentração do GABA no estriado. Os resultados mostram que nesse modelo animal de diabete há interferência de agentes GABAérgicos sobre a glicose estriatal, bem como deficiência do sistema GABAérgico, sugerindo o envolvimento desse sistema com as alterações de humor que acompanham o diabete.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Sendo um segmento de mercado intensivo em capital, o segmento petroquímico nacional necessita inovar incrementalmente os processos e qualidade de seus produtos para a manutenção e melhoria de sua posição no mercado. Sob essa perspectiva, o presente estudo visa a identificar como ocorre a inovação tecnológica em uma Média Empresa (ME) petroquímica sem estrutura formal local de Pesquisa e Desenvolvimento (P&D). Para tanto, foram investigados os processos que se sucederam na empresa estudada, então, focalizando o período em que seu capital era nacional (1992 a 1995), bem como o período posterior quando a mesma foi adquirida por um grupo multinacional (1996 a 2001), detentor de estrutura formal de P&D, assim analisando-se a diferença entre os períodos. De modo a se caracterizar a atividade de inovação tecnológica na EMPRESA, concentrou-se a atenção nas fontes internas relacionadas às competências existentes. Para isso, foram executadas duas pesquisas aplicando-se um questionário para cada um dos períodos, pesquisou-se a documentação da EMPRESA e posteriormente entrevistou-se 8% da população, de modo a se complementar as informações que não ficaram claras nas respostas do questionário. Como resultado, detectou-se que para a inovação em uma empresa sem P&D deve-se investir pesadamente nos recursos humanos através da criação de condições motivadoras às pessoas, que se tenha liberdade para a experimentação, que haja um sentimento de co-propriedade nos empregados e exista apoio da administração para o aceite da ocorrência de erros passíveis inerentes ao processo de melhorias incrementais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A pesquisa realizada avalia a relação entre o projeto de um Web Site1 comercial e o Flow, e a influência desse estado cognitivo sobre a comunicação de marketing do Site. É desenvolvida a partir de três perspectivas: perspectiva tecnológica do meio, mercadológica da organização e psicológica do usuário. O enfoque da pesquisa está voltado para a perspectiva humana, onde sugere que o Flow, um estado cognitivo decorrente de um processo de interação, traz reflexos positivos às comunicações de marketing de Web Sites comerciais. As três hipóteses levantadas para responder a questão de pesquisa são: H1: As características do design gráfico e arquitetura do Web Site influenciam no nível da experimentação do Flow. H2: O usuário que experimenta o Flow interage com mais profundidade com o ambiente mediado, visitando mais páginas e permanecendo mais tempo no Web Site e, por conseqüência, ficando mais exposto as comunicações emanadas pelo Site. H3: A experimentação do Flow aumenta a probabilidade do usuário avaliar positivamente o Site, aumenta a sua predisposição em retornar ao Site ou recomendá-lo a terceiros. A pesquisa empregou um método quase experimental, utilizando como instrumento um site experimental e para os testes e análises um grupo de teste e um grupo de controle. Os resultados obtidos concluem que, primeiro, as características do design e da 1 Os termos em língua inglesa apresentados ao longo deste trabalho encontram-se no glossário. VIII arquitetura do Web Site estimulam a experimentação do Flow. Segundo, o indivíduo que experimenta o fenômeno detém-se por mais tempo no Site. E terceiro, o usuário que experimenta o Flow tende a uma atitude positiva em relação ao Site.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo do presente trabalho é realizar a concepção de um sistema para a aprendizagem de demonstrações da Geometria Euclidiana Plana e a implementação de um protótipo deste sistema, denominado LEEG - Learning Environment on Euclidean Geometry, desenvolvido para validar as idéias utilizadas em sua especificação. Nos últimos anos, tem-se observado uma crescente evolução dos sistemas de ensino e aprendizagem informatizados. A preocupação com o desenvolvimento de ambientes cada vez mais eficientes, tanto do ponto de vista computacional quanto pedagógico, tem repercutido em um salto de qualidade dos software educacionais. Tais sistemas visam promover, auxiliar e motivar a aprendizagem das mais diversas áreas do conhecimento, utilizando técnicas de Inteligência Artificial para se aproximarem ao máximo do comportamento de um tutor humano que se adapte e atenda às necessidades de cada aluno. A Geometria pode ser vista sob dois aspectos principais: considerada como uma ciência que estuda as representações do plano e do espaço e considerada como uma estrutura lógica, onde a estrutura matemática é representada e tratada no mais alto nível de rigor e formalismo. Entretanto, o ensino da Geometria, nos últimos anos, abandonou quase que totalmente sua abordagem dedutiva. Demonstrações de teoremas geométricos não são mais trabalhadas na maioria das escolas brasileiras, o que repercute em um ensino falho da Matemática, que não valoriza o desenvolvimento de habilidades e competências relacionadas à experimentação, observação e percepção, realização de conjecturas, desenvolvimento de argumentações convincentes, entre outras. Levando-se em conta este cenário, desenvolveu-se o LEEG, um sistema para a aprendizagem de demonstrações geométricas que tem como objetivo auxiliar um aprendiz humano na construção de demonstrações da Geometria Euclidiana Plana. O sistema foi modelado sobre uma adaptação do protocolo de aprendizagem MOSCA, desenvolvido para suportar ambientes de ensino informatizados, cuja aprendizagem é baseada na utilização de exemplos e contra-exemplos. Este protocolo propõe um ambiente de aprendizagem composto por cinco agentes, dentre os quais um deles é o aprendiz e os demais assumem papéis distintos e específicos que completam um quadro de ensino-aprendizagem consistente. A base de conhecimento do sistema, que guarda a estrutura lógica-dedutiva de todas as demonstrações que podem ser submetidas ao Aprendiz, foi implementada através do modelo de autômatos finitos com saída. A utilização de autômatos com saída na aplicação de modelagem de demonstrações dedutivas foi extremamente útil por permitir estruturar os diferentes raciocínios que levam da hipótese à tese da proposição de forma lógica, organizada e direta. As demonstrações oferecidas pelo sistema são as mesmas desenvolvidas por Euclides e referem-se aos Fundamentos da Geometria Plana. São demonstrações que priorizam e valorizam a utilização de objetos geométricos no seu desenvolvimento, fugindo das demonstrações que apelam para a simples manipulação algébrica e que não oferecem uma construção significativa do ponto de vista da Geometria. Porém, mesmo sendo consideradas apenas as demonstrações contidas em Elements, todos os diferentes raciocínios para uma mesma demonstração são aceitos pelo sistema, dando liberdade ao aprendiz no processo de construção da demonstração.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Na última década, o uso de sistemas microventilados (sistema VMA) em biotérios possibilitou alojar animais com melhor qualidade sanitária devido ao maior controle ambiental fornecido por esses sistemas. Contudo, ainda é necessário uma melhor avaliação desses sistemas, principalmente no que tange às respostas dos animais. Dessa forma, o objetivo deste trabalho foi avaliar a integridade do epitélio do trato respiratório superior (septo nasal e traquéia) de ratos mantidos em sistema VMA. Cem ratos, da linhagem Wistar-Hannover, heterogênicos, machos, de padrão sanitário convencional, foram mantidos durante 6 meses em dois distintos sistemas de ventilação: ventilação para conforto (grupo VGD, controle) e sistema VMA com intervalos de troca de cama variando de 3, 5, 7 e 9 dias (grupos IT3, IT5, IT7 e IT9, respectivamente). Após a eutanásia dos animais, fragmentos de septo nasal e traquéia foram coletados, processados com rotina de técnica histológica e corados com combinação de ácido periódico de Shiff e azul alciano (PAS-AB) e hematoxilina-eosina (HE). Os parâmetros morfométricos avaliados em septo nasal foram: 1) área de epitélio por unidade de superfície de membrana basal (EP/MB), 2) área de cílios por unidade de superfície de membrana basal (CI/MB), 3) número de núcleos por unidade de superfície de membrana basal (NN/MB), 4) área de muco ácido por unidade de superfície de membrana basal (MAc/MB), 5) área de muco ácido por área de epitélio (MAc/EP) e 6) número de núcleos por área de epitélio (NN/EP). Para NN/MB, o grupo VGD apresentou diferença estatística com os grupos IT3, IT5 e IT9. Para NN/EP, o grupo VGD teve diferença estatística com os todos grupos mantidos em VMA (IT3, IT5, IT7 e IT9). Em AE/MB observou-se diferença significativa do grupo VGD com os grupos IT7 e IT9. Para CI/MB notou-se diferença significativa entre os grupos IT3 e IT7. Embora não foi demonstrada diferença significativa entre os demais grupos, os dados sugerem que o grupo IT3 apresenta proporcionalmente maior área de cílios em relação aos demais grupos. Em MAc/MB e MAc/EP observou-se diferença significativa entre os grupos VGD e IT7. Na avaliação qualitativa da traquéia por escores, predominou a lesão inflamatória crônica, com intenso infiltrado de mononucleares (predominando neutrófilos). A presença e intensidade dessas lesões variaram de acordo com o sistema de ventilação sendo que somente no grupo VGD é que foram encontradas lesões severas (grau III). Com base nos resultados obtidos, os animais mantidos no sistema VMA, independente do intervalo de trocas de cama a que foram submetidos, apresentaram menor intensidade de lesões no septo nasal e na traquéia do que os animais mantidos em VGD. A maior integridade epitelial pode ser relacionado com a qualidade das condições ambientais fornecida aos animais alojados no sistema VMA, confirmando ser este o sistema mais adequado para a manutenção de ratos em experimentação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho propõe a definição de um Sistema de Valores de Troca para modelar as trocas sociais entre agentes em sociedade artificiais. Esse sistema é baseado na Teoria das Trocas de Valores de Jean Piaget e é composto por uma algebrá de valores de troca, que indica como esses valores devem ser representados e manipulados, por um mecanismo de raciocínio social baseado em vaores de troca e por estruturas capazes de armazenar e manipular tais valores. Nesse sistema, os valores de troca são vistos tanto como elementos motivadores das interações quanto como elementos reguladores responsáveis pelo equilíbrio e continuidade das trocas sociais. Acredita-se que o istema proposto é capaz de melhorar a modelagem das interações. É mostrado, também, como o sistema de valores proposto pode ser integrado com modelos de interação existentes na literatura de sistemas multiagente; Para isso, foram escolhidos dosi modelos práticos de organização dinâmica - o Redes de Contrato e o Modelo de Coalizões Baseadas em Dependências. Para demonstrar comomo o sistema de valores pode ser aplicado na modelagem e na simuulação de situações reais, é descrito um cenário para experimentação, no qual o sistema proposto é utilizado para modelar, de forma simplificada, o processo de lobby atrtavés de contribuições para campanhas políticas. Com este cenário pretende-se observar, além da dinâmica dos valores de troca, a capacidade do sistema em modelar caraterísticas mais subjetivas das interações (normalmente observadas nas relações humanas), e, ao tempo tempo, prover elementos reguladores, instrurmentos para a continuidade das interações e trocas sociais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Formular hipóteses a partir da observação e testá-las através da experimentação caracteriza o método baconiano; a formulação inicial explicitamente era fruto de um insight intuitivo, que Francis Bacon denominou indução. A objetividade está no início do processo do conhecimento, basta o cientista deixar os fatos falarem por si enquanto lê o livro aberto da natureza. Uma forma mais sofisticada de indutivismo faz distinção entre contexto da descoberta e contexto da justificação para separar a questão de como as teorias científicas são desenvolvidadas da questão de como testá-las contra suas rivais. Karl Popper, discordando desta atitude, vai atribuir o primeiro ao acaso e para o segundo assumirá uma epistemologia evolucionista. Popper, não acreditando na possibilidade da existência de um critério de verdade, propõe um critério de falsificabilidade. O conhecimento não se daria por generalizações a partir da experiência, mas pela elaboração de conjeturas de alto conteúdo empírico que seriam submetidas à lógica dedutiva (baseado no modus tolles) e experimentação. Popper, por influência humeana, nega qualquer papel da indução na aquisição do conhecimento, que não partiria de percepções, de observações nem do acúmulo de dados ou fatos, mas sim de problemas. Na ausência de critério conclusivo de verdade empírica, só nos resta aprender com nossos erros. O progresso do conhecimento adviria da refutação de uma hipótese e da procura de outra com maior conteúdo explicativo e que pudesse evitar ao menos algumas das falhas da hipótese anterior. Este seria o critério de progresso científico. O problema do falsificacionismo de Popper é que o cientista não persegue teorias para provar que são falsas, mas teorias que procura demonstrar verdadeiras. Popper nos diz qual seria o ideal da ciência, mas não de como ela é praticada. Tomados isoladamente, tanto o indutivismo como o método hipotético-dedutivo são simplistas e ingênuos. O primeiro é cego, não direciona a experimentação pela hipótese teórica. O segundo tem direcionamento teórico, mas não dá conta da geração da hipótese. Como ambos estão do mesmo lado na descrição da relação do experimento e da teoria, isto torna frutífera a interação destas duas vias. É tematizada a teoria dos germes e a descoberta da penicilina como exemplo desta abordagem em biologia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Com o avanço da globalização, surgem dúvidas quanto às conseqüências desse significativo processo para os países em desenvolvimento. Apesar disso, alguns fatos são inquestionáveis, como, por exemplo, a necessidade que terão as empresas, em especial as brasileiras, de buscar novas “fórmulas” para continuar competindo neste novo contexto globalizado. A tecnologia deve permanecer sendo um “divisor de águas” entre os líderes de mercado e seus seguidores, no entanto, seria razoável supor que a competição não se restrinja somente a esse aspecto, devendo abranger outros, também importantes, como é o caso dos processos de produção. Nesse contexto, surge a Produção Enxuta, que, por atacar sistematicamente os desperdícios dentro dos processos produtivos, busca a maximização da eficácia operacional dos mesmos, e por essa razão, tem-se mostrado como uma opção bastante exitosa dentro da competição globalizada. Apesar disso, a adoção da Produção Enxuta nas empresas ocidentais não tem acontecido na proporção e velocidade que permitissem a necessária redução da vantagem competitiva que as empresas japonesas auferiram através do seu uso. Isso se deve, no entender desta pesquisa, à falta de um entendimento mais profundo dos seus conceitos, elementos, e, principalmente, à ausência de um cuidado maior por parte das referidas empresas em estabelecer uma coerência com a sua própria política competitiva, ao tentar introduzir esses novos conceitos nos seus sistemas fabris. Este trabalho parte da premissa de que deve existir essa clara ligação entre as ações de melhoria executadas no “chão-de-fábrica” e a própria estratégia competitiva da empresa Nesse sentido, propõe o modelo de uma abordagem estruturada que pode permitir tal coerência. Desta forma é apresentada uma revisão bibliográfica, dividida em 4 partes onde, na primeira são abordados os conceitos básicos de estratégias competitivas, na segunda são revisados os sistemas de produção, em especial o Sistema de Produção em Massa, para assim permitir o seu contraste com a Produção Enxuta, apresentada logo após, na terceira parte. E, finalmente, na quarta parte, devido à sua relevância dentro da lógica de gestão enxuta de produção, é feita uma releitura da Autonomação, seus conceitos e potencialidades como preparação ao estudo de caso apresentado no final do trabalho, o qual foi desenvolvido na Pirelli Pneus S.A., onde o referido modelo foi aplicado com sucesso no processo de um produto considerado maduro, que já demonstra, inclusive, características de um commodity. A pesquisa é finalizada com a resenha dos resultados alcançados, bem como com a apresentação de considerações do autor quanto às dificuldades e peculiaridades relevantes relativas à experimentação do modelo proposto, concluindo-se, então, que a Eliminação das Perdas e a Autonomação podem servir de base para uma estratégia de produção com potencial para alavancar toda a estratégia competitiva da empresa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Muitos aplicativos atuais, envolvendo diversos domínios de conhecimento, são estruturados como arquiteturas de software que incorporam, além dos requisitos funcionais, requisitos não funcionais, como segurança, por exemplo. Tais requisitos podem constituir um domínio próprio, e, portanto, serem comuns a várias outras arquiteturas de software. Tecnologias como Programação Orientada a Aspectos, Reflexão Computacional e Padrões de Projeto colaboram no desenvolvimento de arquiteturas que provêem a separação de requisitos não funcionais. Porém, sua experimentação e adoção no domínio da segurança computacional ainda é incipiente. O foco deste trabalho é a elaboração de um padrão de projeto voltado à segurança, utilizando como arquitetura conceitual programação orientada a aspectos, e como arquitetura de implementação, reflexão computacional. A composição destas tecnologias resulta em um middleware orientado à segurança, voltado a aplicações desenvolvidas em Java. Estuda-se as tecnologias, seus relacionamentos com a área de segurança, seguido da proposta de uma arquitetura de referência, a partir da qual é extraído um protótipo do middleware de segurança. Este, por sua vez, provê mecanismos de segurança tão transparentes quanto possível para as aplicações que suporta. Com o objetivo de realizar a implementação do middleware de segurança, também são estudadas os mecanismos de segurança da plataforma Java, porém limitado ao escopo deste trabalho. Segue-se o estudo da base conceitual das tecnologias de Reflexão Computacional, o modelo de implementação, seguido de Programação Orientada a Aspectos, o modelo conceitual, e, por fim, têm-se os Padrões de Projeto, a arquitetura de referência. Integrando as três tecnologias apresentadas, propõe-se um modelo, que estabelece a composição de um Padrão Proxy, estruturado de acordo com a arquitetura reflexiva. Este modelo de arquitetura objetiva implementar o aspecto de segurança de acesso a componentes Java, de forma não intrusiva,. Baseado no modelo, descreve-se a implementação dos diversos elementos do middleware, estruturados de forma a ilustrar os conceitos propostos. Ao final, apresenta-se resultados obtidos durante a elaboração deste trabalho, bem como críticas e sugestões de trabalhos futuros.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os resultados demonstram que não houve diferença estatística significante em relação às áreas da ferida entre os grupos analisados (G2, G3 e G4) dentro do mesmo dia de observação. Entretanto, na avaliação histopatológica da cicatrização, houve diferença significativa na segunda semana de experimento entre as médias avaliadas do grupo G2 e o grupo G3 sendo que, este último apresentou melhor cicatrização quando comparado ao primeiro. Quanto ao nível de corticosterona observou-se diferença significativa do grupo G2 com relação aos demais grupos apenas na primeira semana. Este resultado indica que, na primeira semana, os animais submetidos à cirurgia e mantidos em ambientes sem EA tiveram níveis elevados de corticosterona, compatível com situação de estresse, enquanto que os animais que também sofreram procedimento cirúrgico, mas foram mantidos em ambientes enriquecidos no pós-operatório, apresentaram níveis de corticosterona similares àqueles que não sofreram intervenção cirúrgica. Desta forma, concluiu-se que a utilização do EA não altera A preocupação com o bem-estar dos animais utilizados na experimentação científica tem aumentado nos últimos anos bem como, a maneira com que o estresse pode interferir nos resultados das pesquisas. Entre as técnicas utilizadas para minimizar o estresse e promover o bem-estar destaca-se o enriquecimento ambiental (EA), que visa propiciar um ambiente no qual o animal possa demonstrar comportamentos típicos da espécie. Nas espécies até hoje estudadas o uso do EA tem sido favorável com resultados positivos tanto no aspecto comportamental como fisiológico. O presente trabalho teve como objetivo avaliar o efeito do EA na recuperação pós-cirúrgica em Rattus norvergicus através da observação do nível de corticosterona sangüínea e o tempo de cicatrização, pela regressão do tamanho da ferida cirúrgica e posterior análise histopatológica. . Ratos machos da linhagem Wistar foram separados em quatro grupos: sem procedimento cirúrgico e sem enriquecimento ambiental (grupo G1), com procedimento cirúrgico e sem enriquecimento ambiental (grupo G2), com procedimento cirúrgico e enriquecimento ambiental com mobiliário (grupo G3) e com procedimento cirúrgico e enriquecimento ambiental com interação social (grupo G4). No grupo G3, diferentes objetos (iglu, bloco de madeira e cilindro) foram colocados de forma seqüencial nas gaiolas enquanto que na gaiola do grupo G4 foi introduzido outro rato, macho, com a mesma idade e peso dos utilizados no experimento como forma de interação social. significativamente o tempo de cicatrização de feridas cutâneas mas reduz o estresse pós-cirúrgico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O carcinoma epidermóide do esôfago é neoplasia com alta taxa de mortalidade e distribuição geográfica peculiar. O estudo da célula tumoral ou suas diferenciações pré-tumorais, demonstraram ter por análise imunohistoquímica e genética, inúmeros determinantes que podem ajudar no tratamento. Neste trabalho foi avaliada a expressão imunohistoquímica de p53 e ki-67 na carcinogênese esofágica induzida quimicamente através do uso de dietilnitrosamina, em um grupo de 100 camundongos fêmeas. O estudo experimental foi realizado com 4 grupos de animais, onde os grupos I e II foram considerados controles, sendo diferenciados por gavagem esofágica, uma vez semana, com água fria (temperatura ambiente) ou quente (60º-70ºC). E os grupos III e IV foram considerados estudos, os quais receberam dietilnitrosamina por 3 dias consecutivos semanalmente, também sendo diferenciados por gavagem, uma vez por semana, com água fria ou quente. O estudo apresentou data progressiva de sacrifícios com colheita de peças esofágicas, que iniciava aos 30 dias de experimento e terminava aos 150 dias. Demonstrou-se que não houve diferença na incidência tumoral quando foi acrescida a variável temperatura da água; provavelmente devido ao episódio único semanal que era adicionado ao animal em experimentação. A análise imunohistoquímica do p53 não evidenciou diferença estatística durante a evolução da carcinogênese até 150 dias, porém quando analisado a relação com alterações patológicas demonstra-se que apresenta significância em relação à patologia baixo grau de displasia, alto grau e carcinoma. A análise imunohistoquímica do ki-67 demonstrou diferença estatística durante a evolução da carcinogênese a partir do dia 120 de experimento e quando analisada a relação com alterações patológicas demonstrou-se que apresenta significância também em relação à lesão intraepitelial de alto grau e carcinoma.