66 resultados para Metodologia de desenvolvimento de sistemas
Resumo:
A linguagem síncrona RS é destinada ao desenvolvimento de sistemas reativos. O presente trabalho tem como objetivo criar meios que facilitem o uso da linguagem RS no projeto e implementação desses sistemas, permitindo que, à partir da especificação de um sistema reativo, seja realizada a sua implementação de forma automática. Deste modo, a linguagem RS é utilizada para a descrição do comportamento de um sistema em um alto nível de abstração, antes de serfeitas a decomposição do sistema em componentes de software ou hardware. A implmentação do protótipo do sistema computacional dedicado é obtida através de uma síntese automática desse modelo de alto nível. Foram implementados geradores de código que utilizam o código objeto fornecido pelo compilador da linguagem RS. Os geradores fazem a tradução para a linguagem C, para a linguagem JAVA, ou para a linguagem de descrição de hardware VHDL. A partir da síntese desses códigos poderá ser obtida a implementação do sistema em um micrcoomputador comercial, em um microcomputador Java de dedicado (ASIP Java), ou em um hardware de aplicação específica (ASIC). Foram realizados estudos de caso representativos dos sistemas reativos embaraçados e de tempo rel. Estes estudos de caso serviram para validar os geradores de código bem como para analisar o uso da linguagem RS no projeto e implementação desses sistemas.
Resumo:
Esta dissetação propõe um estudo da metodologia utilizada no Processo de Desenvolvimento de Produto (PDP) da Siemens Metering Ltda, uma empresa do ramo eletroeletrônico, aboradando o mesmo através de uma visão sistêmica, com o suporte de ferramentas de qulaidade, sendo o objetivo principal a utilização integrada das ferramentas QFD e FMEA no processo de desenvolvimento de produto tornando possível a prevenção de falhas, melhorando a eficiência do processo. Para o desenvolvimento do trabalho foram feitos estudos junto a áreas da empresa onde se identificou que o método atualmente empregado em 98% dos projetos desenvolvidos acarretava falhas no desenvolvimento e conseqüentes atrasos dos cronogramas dos problemas ocorridos, o faturamento previsto não era cumprido, ficando em média com 2% do faturamento total da empresa, quando a previsão era de 12% em média. O impacto financeiro de reduções de custo propostas e não implementadas geraram a empresa um montante de R$ 250.000,00/ano, de despesas que poderiam ter sido evitadas A proposta de melhoria constitiu em definir uma metodologia de desenvolvimento de produto com suporte de ferrramentas de qualidade, QFD e FMEA. A abordagem sistêmica do processo possibilitou a identificação dos pontos relevantes do projeto, de forma a atender os requisitos do cliente, bem como a definiçaõ de ações de prevenção em pontos importantes para o projeto. A combinação destas ações possibilita que o processo de desenvolvimento de produto seja mais confiável, quanto a prazos e também em relação ao desempenho do produto resultante. Para o desenvolvimento do trabalho, foram selecionados dois projetos em desenvolvimento pela atual metodologia, onde a proposta foi aplicada, de forma que, foi possível identificar os pontos que anteriormente não haviam sido identificados como relevantes para as etapas de desenvolvimento já concluídas. A aplicação do QFD possibilitou transformar a qualidade demandada em requisitos do produto e do processo. O FMEA, aplicado a um item de cada projeto, possibilitou a definição de ações preventivas que se implementadas com sucesso, minimizam a possibilidade de falha do produto acabado. Os resultados demonstram que a nova metodologia se aplicada na etapa inicial do processo de desenvolvimento de produto, permite um ganho de produtividade e de confiabilidade em relação aos resultados obtidos com o processo atual.
Resumo:
Uma etapa fundamental no desenvolvimento de sistemas tolerantes a falhas é a fase de validação, onde é verificado se o sistema está reagindo de maneira correta à ocorrência de falhas. Uma das técnicas usadas para validar experimentalmente um sistema é injeção de falhas. O recente uso de sistemas largamente distribuídos para execução dos mais diversos tipos de aplicações, faz com que novas técnicas para validação de mecanismos de tolerância a falhas sejam desenvolvidas considerando este novo cenário. Injeção de falhas no sistema de comunicação do nodo é uma técnica tradicional para a validação de aplicações distribuídas, para forçar a ativação dos mecanismos de detecção e recuperação de erros relacionados à troca de mensagens. A condução de experimentos com injetores de comunicação tradicionais é feita pelo uso do injetor em uma máquina do sistema distribuído. Se o cenário desejado é de múltiplas falhas, o injetor deve ser instanciado independentemente nas n máquinas que as falhas serão injetadas. O controle de cada injetor é individual, o que dificulta a realização do experimento. Esta dificuldade aumenta significativamente se o cenário for um sistema distribuído de larga escala. Outro problema a considerar é a ausência de ferramentas apropriadas para a emulação de determinados cenários de falhas. Em aplicações distribuídas de larga escala, um tipo comum de falha é o particionamento de rede. Não há ferramentas que permitam diretamente a validação ou a verificação do processo de defeito de aplicações distribuídas quando ocorre um particionamento de rede Este trabalho apresenta o estudo de uma abordagem para injeção de falhas que permita o teste de atributos de dependabilidade de aplicações distribuídas de pequena e larga escala implementadas em Java. A abordagem considera a não obrigatoriedade da alteração do código da aplicação sob teste; a emulação de um cenário de falhas múltiplas que ocorrem em diferentes nodos, permitindo o controle centralizado do experimento; a validação de aplicações que executem em sistemas distribuídos de larga escala e consideram um modelo de falhas realista deste tipo de ambiente, incluindo particionamentos de rede. A viabilidade da abordagem proposta é mostrada através do desenvolvimento do protótipo chamado FIONA (Fault Injector Oriented to Network Applications), o qual atualmente injeta falhas em aplicações desenvolvidas sob o protocolo UDP.
Resumo:
Objetivos: Desenvolver modelo de malária experiemtnal em ratos Wistar e avaliar a influência da infecção noperfil farmacocinético e na distirbuição tecidual da quinha (QN) Metodologia: No desenvolvimento da infecção exerimental de ratos Wistar por Plasmodium berghei foram testados diferente inóculos pela via i.v. e i.p. em diferentes idades. A adequabilidade do protocolo proposto foi avaliada utilizando cloroquina. Neste modelo, as doses efetivas da QN foram estabelecidas após administração oral, utilizando protocolo de tratamento padronizado. Os perfis famacocinéticos da QN após administração i.v. de 50 mg/kg a ratos sadios e oral de 250 mg/kg a ratos sadios e infectados por P. berghei, com baixa e alta parasitemia, foram avaliados após quantificação da QN através de metodologia por cromatografia em líquido de alta eficiência validada. A distribuição hepática e muscular do fármaco emr atos sadios e com alta parasitemia foi avaliada por microdiálise. Resultados e Discussão: O protocolo para desenvolver malária experimental em ratos Wistar utiliando inoculação i.v. de 10ª hemáceas parasitas por P. berghei em animais de 5 semanas mostrou-se adequado quando testado com cloroquina. As doses de QN de 50 e 250 mg/kg foram efetivas na cura da malária experimental. Após adminsitração i.v. de QN a ratos sadios, obteve-se volume dee distribuição (Vd) de 11.6 4.1 L.Kg , clearencece (CI) de 5,8 2,2 L.Kg .h e meia-vida de 2,1 1,2h. Após administração oral, uma tendência de redução do CI e aumento do Vd. proporcional ao nível parasitêmico, foi observada. As frações livres teciduais da QN em ratos infectados foram inferiores às obtidas em ratos sadios, observando-se maiores concentrações musculares do que hepáticas. Conclusões: As alterações famacocinéticas da QN causadas pelos diferentes níveis de parasitemia observadas na evolução da malária devem ser levadas em consideração quando da deeerminação do esquema posológico do fármaco, visando garantir o sucesso terapêutico e principalmente, a segurança para o indivíduo infectado.
Resumo:
Este trabalho identifica as principais características e relevância do setor de serviços no cenário econômico brasileiro, discutindo a importância do desenvolvimento dos sistemas gerenciais, em especial aqueles dedicados ao gerenciamento estratégico dos custos e da cadeia de valor. Para o desenvolvimento do tema discute-se inicialmente as características do setor de serviços e os principais métodos de acumulação de custos e a partir deste referencial teórico é apresentada, em estudo de caso, a realidade de um importante grupo empresarial e a necessidade de revisão de seus modelos gerenciais no que se refere a metodologia utilizada e suas deficiências. Aplica-se, no desenvolvimento deste estudo de caso, os conceitos da gestão estratégica de custos e conclui-se que para a manutenção de diferenciais competitivos sustentáveis é indispensável construir um sistema adequado de custeio, servindo como referencial o sistema de custos baseado em atividades.
Resumo:
O desenvolvimento e manutenção de software fazem parte de um processo intrinsecamente difícil e que consome tempo e custos, principalmente quando o sistema consiste de milhares de linhas de código. Por isso, sistemas de visualização de software objetivam prover mecanismos para construir representações visuais de informações sobre programas e sistemas, através das quais o programador pode analisar e compreender características de sua estrutura e funcionamento em um maior nível de abstração do que o código fonte. Assim, ferramentas visuais de software que suportam as tarefas de desenvolvimento, depuração, manutenção e reutilização tornam-se mais necessárias pelo fato de ajudarem a reduzir a complexidade inerente do processo de compreensão. Esse trabalho tem como objetivo principal o desenvolvimento de um visualizador que exiba as informações existentes nos programas de forma mais rápida e legível, evitando que o programador/analista tenha que percorrer as linhas de código. O texto inicialmente situa a área de visualização de informações, abordando a área de visualização de software, uma vez que a visualização de software é assim chamada por tratar da visualização de informações que são extraídas de programas. Em seguida, é apresentado um estudo de caso baseado no desenvolvimento dos sistemas da empresa Benfare Informática, no qual caracteriza-se a necessidade de ferramentas que auxiliem a compreensão de programas, com o objetivo de otimizar as operações de manutenção e desenvolvimento de programas. O restante do trabalho trata do sistema VisProgress que foi um protótipo desenvolvido como ferramenta de apoio para a equipe de desenvolvimento da empresa e como forma de avaliar o uso de técnicas de visualização em tal situação. A ferramenta desenvolvida é um visualizador de informações que percorre programas escritos em Progress, ferramenta de desenvolvimento utilizada pela empresa, e extrai as informações encontradas nos programas. A visualização é dividida em três partes. A primeira permite a visualização de informações textuais extraídas diretamente do código fonte dos programas que compõem os sistemas, a segunda faz a visualização de um grafo que representa a chamada de programas, e a terceira e última faz a visualização também de um grafo, porém representando o compartilhamento de variáveis entre os programas. A obtenção dos grafos foi construída em Delphi, porém a visualização gráfica é feita através da ferramenta Dotty, ferramenta específica para visualização de grafos. Após a descrição do protótipo implementado, são apresentados os resultados obtidos com a avaliação da ferramenta feita nas empresas Benfare Informática e Dzset Soluções e Sistemas para Computação.
Resumo:
A Engenharia de Conhecimento (Knowledge Engineering - KE) atual considera o desenvolvimento de Sistemas Baseados em Conhecimento (Knowledge- Based Systems - KBSs) como um processo de modelagem baseado em modelos de conhecimento reusáveis. A noção de Métodos de Solução de Problemas (Problem- Solving Methods - PSMs) desempenha um importante papel neste cenário de pesquisa, pois representa o conhecimento inferencial de KBSs em um formalismo explícito. Não menos importante, PSMs também facilitam a compreensão do processo de raciocínio desenvolvido por humanos. PSMs são descritos em um formalismo abstrato e independente de implementação, facilitando a análise do conhecimento inferencial que muitas vezes é obscurecido em grandes bases de conhecimento. Desta forma, este trabalho discute a noção de PSMs, avaliando os problemas de pesquisa envolvidos no processo de desenvolvimento e especificação de um método, como também analisando as possibilidades de aplicação de PSMs. O trabalho apresenta a descrição e análise de um estudo de caso sobre o processo de desenvolvimento, especificação e aplicação de um PSM Interpretação de Rochas. As tarefas de interpretação de rochas são desenvolvidas por petrógrafos especialistas e correspondem a um importante passo na caracterização de rochasreservatório de petróleo e definição de técnicas de exploração, permitindo que companhias de petróleo reduzam custos de exploração normalmente muito elevados. Para suportar o desenvolvimento de KBSs neste domínio de aplicação, foram desenvolvidos dois PSMs novos: o PSM Interpretação de Rochas e o PSM Interpretação de Ambientes Diagenéticos. Tais métodos foram especificados a partir de uma análise da perícia em Petrografia Sedimentar, como também a partir de modelos de conhecimento e dados desenvolvidos durante o projeto PetroGrapher. O PSM Interpretação de Rochas e o PSM Interpretação de Ambientes Diagenéticos são especificados conceitualmente em termos de competência, especificação operacional e requisitos/suposições. Tais definições detalham os componentes centrais de um esquema de raciocínio para interpretação de rochas. Este esquema é empregado como um modelo de compreensão e análise do processo de raciocínio requerido para orientar o desenvolvimento de uma arquitetura de raciocínio para interpretação de rochas. Esta arquitetura é descrita em termos de requisitos de armazenamento e manipulação de dados e conhecimento, permitindo projetar e construir um algoritmo de inferência simbólico para uma aplicação de bancos de dados inteligentes denominada PetroGrapher.
Resumo:
Perícia é a capacidade de aplicar habilidades intelectuais para resolver problemas em domínios estratégicos, com um desempenho e qualidade de solução superior à média dos profissionais da área. Ampliar a compreensão do que é a perícia fornece suporte e justificativas para a proposição de novos recursos para aquisição e modelagem de conhecimento na área da Engenharia de Conhecimento. Esta tese apresenta os resultados de um estudo sobre a perícia em Geologia, em especial numa aplicação em Petrografia Sedimentar. A tarefa em questão é especialmente significativa porque, ao contrário das tarefas típicas, cujo estudo tem levado ao desenvolvimento de diversas metodologias de aquisição de conhecimento, essa tarefa aplica primariamente raciocínio baseado na análise de imagens e, secundariamente, busca e métodos analíticos para interpretar os objetos da perícia (no caso, rochas-reservatório de petróleo). O objetivo deste projeto de tese é a identificação dos recursos cognitivos aplicados por especialistas na solução de problemas, que são essencialmente de reconhecimento visual e a representação do que é reconhecido. A interpretação dessas habilidades fornece fundamentos para a proposta de novos recursos para aquisição e modelagem, e posterior desenvolvimento de sistemas especialistas para interpretação de rochas. Também contribuem para o tratamento da perícia em outros campos que possuam o mesmo caráter de reconhecimento visual tal como a interpretação de rochas. O estudo foi desenvolvido em duas fases. Na primeira, o conhecimento foi eliciado de um especialista em Petrografia Sedimentar e estruturado, utilizando técnicas tradicionais de aquisição de conhecimento. A segunda fase envolveu o desenvolvimento de um experimento com dezenove geólogos com diferentes níveis de perícia, para identificar os tipos de conhecimentos que suportam a perícia e quais os métodos de solução que são aplicados nos altos níveis da perícia. O estudo das habilidades cognitivas demonstrou que especialistas em Petrografia sedimentar desenvolvem uma grande variedade de formas mentais e hierarquias que diferem daquelas normalmente descritas na literatura da área. Especialistas retém ainda um grande conjunto de abstrações simbólicas de imagens, denominados aqui de pacotes visuais. Os pacotes visuais possuem importante papel na indexação das estruturas mentais e na condução do processo de inferência. As representações são tipicamente associadas com seus próprios métodos de solução de problemas adequados à complexidade da tarefa de caracterização de reservatórios. A aplicação desses recursos faz parte do conjunto de conhecimentos tácitos dos especialistas. A associação de grafos de conhecimento e a análise de casos mostrou-se, neste trabalho, um método adequado para a externalizar e adquirir o conhecimento declarativo e as relações causais, as quais não são evidenciadas com as técnicas de aquisição de conhecimento tradicionais. Métodos de solução de problemas, por sua vez, foram eliciados com o auxílio das bibliotecas de solução de problemas disponíveis na literatura e grafos de conhecimento. O modelo de representação, aqui proposto, expressa o conhecimento em dois níveis: o nível da externalização, compatível com o conhecimento de um intermediário em Petrografia Sedimentar, e o nível da inferência, que modela o conhecimento tácito do especialista. Esta tese apresenta de forma inédita o conceito de pacote visual como uma primitiva de representação e um conjunto de métodos de solução de problemas adequados à interpretação de rochas.
Resumo:
Mecanismos de comunicação entre processos são fundamentais no desenvolvimento de sistemas distribuídos, já que constituem o único meio de compartilhar dados entre processos que não dispõem de memória comum. Um dos principais mecanismos de comunicação utilizados é a troca de mensagens entre os processos componentes do sistema. Existem muitas aplicações que são compostas por um conjunto de processos que cooperam para realizar uma determinada tarefa e que são mais facilmente construídas se o sistema operacional oferecer a possibilidade de se enviar uma mensagem a diversos destinos. Neste caso são necessários mecanismos que permitam a difusão confiável de uma mensagem para um grupo de processos em uma única operação. Tendo em vista esta necessidade, diversos protocolos têm sido apresentados na literatura para permitir a comunicação entre um grupo de processos com diferentes graus de complexidade e de desempenho. Este trabalho apresenta um ambiente para desenvolvimento e utilização de protocolos de comunicação em grupo, denominado FlexGroup. O ambiente divide os protocolos em suas características fundamentais, permitindo que estas características possam ser desenvolvidas separadamente como subprotocolos. Os subprotocolo são interligados através de uma interface comum e gerenciados pelo núcleo do ambiente. A comunicação entre as diversas máquinas da rede é gerenciada pelo FlexGroup, permitindo que o desenvolvedor de um novo subprotocolo possa somente se focar nas características específicas do seu protocolo. Esta modularidade permite, ainda, que apenas as partes de interesse de um novo protocolo precisem ser implementadas, além de também viabilizar a criação de um protocolo baseado nos já existentes no ambiente. Além disso, o ambiente permite que as aplicações de comunicação em grupo possam definir, através de uma biblioteca, o conjunto de subprotocolos que desejam utilizar, em tempo de execução, sem necessidade de conhecer a implementação interna dos subprotocolos.. Da mesma forma, alguém que se proponha a realizar comparações com os protocolos existentes, pode utilizar os diversos subprotocolos e as aplicações existentes, bastando alterar os protocolos utilizados em tempo de execução e avaliando somente as características que deseje analisar.
Resumo:
A computação de tempo real é uma das áreas mais desafiadoras e de maior demanda tecnológica da atualidade. Está diretamente ligada a aplicações que envolvem índices críticos de confiabilidade e segurança. Estas características, inerentes a esta área da computação, vêm contribuindo para o aumento da complexidade dos sistemas tempo real e seu conseqüente desenvolvimento. Isto fez com que mecanismos para facilitar especificação, delimitação e solução de problemas passem a ser itens importantes para tais aplicações. Este trabalho propõe mecanismos para atuarem no desenvolvimento de sistemas de tempo real, com o objetivo de serem empregados como ferramenta de apoio no problema da verificação de presença de inconsistências, que podem vir a ocorrer nos vários modelos gerados partir da notação da linguagem de modelagem gráfica para sistemas de tempo real - UML-RT(Unified Modeling Language for Real Time). Estes mecanismos foram projetados através da construção de um metamodelo dos conceitos presentes nos diagramas de classe, de objetos, de seqüência, de colaboração e de estados. Para construir o metamodelo, utiliza-se a notação do diagrama de classes da UML (Unified Modeling Language). Contudo, por intermédio das representações gráficas do diagrama de classes não é possível descrever toda a semântica presente em tais diagramas. Assim, regras descritas em linguagem de modelagem OCL (Object Constraint Language) são utilizadas como um formalismo adicional ao metamodelo. Com estas descrições em OCL será possível a diminuição das possíveis ambigüidades e inconsistências, além de complementar as limitações impostas pelo caráter gráfico da UML. O metamodelo projetado é mapeado para um modelo Entidade&Relacionamento. A partir deste modelo, são gerados os scripts DDL (Data Definition Language) que serão usados na criação do dicionário de dados, no banco de dados Oracle. As descrições semânticas escritas através de regras em OCL são mapeadas para triggers, que disparam no momento em que o dicionário de dados é manipulado. O MET Editor do SiMOO-RT é a ferramenta diagramática que faz o povoamento dos dados no dicionário de dados. SiMOO-RT é uma ferramenta orientada a objetos para a modelagem, simulação e geração automática de código para sistemas de tempo real.
Resumo:
A estimulação neonatal tem sido utilizada como modelo experimental para examinar os mecanismos pelos quais variações precoces do ambiente do animal afetam o desenvolvimento de sistemas neurais, dando origem a alterações comportamentais e neuroendócrinas duradouras. Buscou-se estudar os efeitos do estresse neonatal sobre duas abordagens: comportamental e imunoistoquímica. Na primeira, foram avaliados em ratos adultos (90-110 dias) dois paradigmas de medo: inato (campo aberto, N=48) e aprendido, (condicionamento clássico N=48); enquanto na segunda abordagem realizou-se a técnica imunoistoquímica (N=15) na substância nigra compacta (SNCo) e área tegmental ventral (VTA) para detecção da enzima precursora da dopamina, a tirosina hidroxilase (TH). Foram utilizados ratos da variedade Wistar, que do 1º ao 10º dia de vida foram submetidos a 3 tipos de intervenção: manipulação (retirados do ninho por 3min sendo tocados gentilmente por 1 min); separação (retirados do ninho por 3h, e mantidos a temperatura de 33ºC); e grupo controle (sem intervenções do experimentador ou do tratador). O condicionamento clássico (treino) foi constituído por 10 pareamentos de 1 estímulo incondicionado (EI, choque elétrico –0,8mA) com 2 estímulos condicionados ou neutros (EC, som e luz) em 2 sessões de 5 pareamentos cada. A duração de cada emissão do EC foi de 5s sendo no último segundo associada ao EI. O teste foi realizado 24h após o treino, e consistiu de emissões de EC com mesma duração e intervalo por um período total de 30 min. No experimento 2, foi utilizado um campo aberto de 1m2 no qual os ratos permaneceram por 5 min. Em ambos experimentos os comportamentos eram registrados em vídeo e analisados através do programa Noldus. Os resultados (X±EPM) foram analisados por uma ANOVA, post-hoc Newman Keuls ou Kruskal Wallis post-hoc Dunn (p<0,05). Nos experimentos comportamentais foram observados os seguintes resultados: no medo aprendido houve diminuição da duração (s) do comportamento de imobilização (491±54); da duração de rearing (58±13) e da latência para extinção do condicionamento do grupo manipulado (591±434) comparado ao controle (718±73; 22±6; 1020±843 respectivamente) e no campo aberto houve aumento da duração e freqüência da locomoção e rearing (97.6±8; 4.3±1 e 64.3±5; 31±2), diminuição da duração de autolimpeza (4.2±1) e aumento da freqüência de entradas no centro do campo aberto (4.3±0,8) no grupo manipulado comparado ao controle (69±7; 30±3 e 48±6; 21.5±2; 19±5; 2.2±0.6, respectivamente). Na análise Imunoistoquímica não foram detectadas diferenças significativas entre os grupos quanto imunomarcação de TH nas áreas estudadas. Foi confirmada a diminuição da inibição comportamental no campo aberto como conseqüência da manipulação. A manipulação neonatal também reduziu as respostas do medo condicionado, ratos manipulados no período neonatal expressam, quando adultos, menor expressão de medo aprendido e tem a extinção da aprendizagem aversiva mais acelerada. Curiosamente não foram observados efeitos da separação materna sobre as repostas de medo inato ou aprendido. Embora a dopamina do sistema mesocorticolímbico module as respostas comportamentais alteradas, nenhum dos modelos de intervenção estudados afetaram a intensidade de marcação deste neurotransmissor.
Resumo:
A estimulação neonatal tem sido utilizada como modelo experimental para examinar os mecanismos pelos quais variações precoces do ambiente do animal afetam o desenvolvimento de sistemas neurais, dando origem a alterações comportamentais e endócrinas estáveis. A estimulação neonatal consiste na manipulação dos animais por alguns minutos diariamente durante os primeiros dias de vida. Esse procedimento provoca, na vida adulta, uma série de alterações comportamentais e endócrinas que se caracterizam pela diminuição do medo a ambientes novos e uma resposta menos acentuada da secreção de glicocorticóides pela supra-renal quando os animais são expostos a estímulos estressantes. A dopamina é um neurotransmissor que atua no sistema nervoso central, onde está envolvida na integração de vários aspectos da função neuroendócrina, como, por exemplo, um regulador na secreção de prolactina e do hormônio liberador de corticotrofina. O objetivo do presente estudo foi investigar o papel da manipulação neonatal sobre o sistema dopaminérgico através da quantificação de neurônios contendo tirosina hidroxilase, a enzima inicial e limitante da síntese de catacolaminas, em núcleos hipotalâmicos. Ratos machos Wistar foram divididos em dois grupos. Um grupo foi submetido à manipulação por um minuto, uma vez por dia, durante os dez primeiros dias de vida (grupo manipulado) e outro grupo não sofreu manipulação (grupo não-manipulado, controle). Aos 75-80 dias, os animais foram anestesiados, perfundidos e os cérebros processados para a detecção imunohistoquímica da tirosina hidroxilase. Foi utilizado um anticorpo monoclonal contra tirosina hidroxilase e o método indireto avidina-biotina-peroxidase. A quantificação da expressão da tirosina hidroxilase consistiu na contagem dos neurônios imunorreativos à tirosina hidroxilase nos núcleos arqueado, paraventricular e periventricular do hipotálamo em cada indivíduo. A média ± EPM do número de neurônios positivos para tirosina hidroxilase de todos os indivíduos foi comparada entre os grupos manipulado e não-manipulado através do teste t de Student. Não houve diferença significativa no número de neurônios imunorreativos à tirosina hidroxilase nos núcleos arqueado, paraventricular e periventricular do hipotálamo de ratos machos adultos entre os animais do grupo manipulado e controle não-manipulado. O estudo mostrou que a manipulação neonatal não se constituiu num estímulo suficiente para promover alterações no número de neurônios imunorreativos à tirosina hidroxilase nos núcleos arqueado, paraventricular e periventricular do hipotálamo de ratos machos adultos.
Resumo:
A Engenharia de Software tornou-se uma das principais áreas de concentração do mundo da Ciência da Computação, pois ela abrange métodos para construir sistemas, ferramentas que fornecem apoio a construção e os procedimentos a seguir para que os métodos estejam de acordo com as ferramentas usadas [PRE 95]. No desenvolvimento de sistemas cada vez mais complexos vê-se a necessidade da utilização de equipes de pessoas no projeto e implementação. Essas pessoas podem estar geograficamente dispersas e portanto possuem a necessidade de troca de informações para que os sistemas desenvolvidos sejam adequados com o objetivo inicial e de qualidade. Assim, os sistemas cooperativos, chamados de groupware, tornaram-se uma importante ferramenta utilizada por esse grupo de profissionais para que as tarefas desenvolvidas em grupo se tornem interativas e eficientes. A interação entre as pessoas que estão trabalhando cooperativamente deve ser a mais produtiva possível, sendo semelhante ao trabalho em grupo em um único local. Assim, a percepção das atividades que estão sendo realizadas devem estar disponíveis para cada profissional, através da Interface Homem-Computador do sistema groupware que estão utilizando. Este trabalho apresenta uma “biblioteca” de Componentes de Percepção que fornecem as informações necessárias para que as pessoas que estão participando da tarefa cooperativa tenham a percepção das atividades que estão sendo realizadas, como também quem e como as estão fazendo. Esses componentes são uma extensão do Ambiente PROSOFT Cooperativo, fornecendo assim uma especificação formal de forma a garantir completeza, corretude e ausência de ambigüidades que são muito difíceis de se conseguir com uma descrição informal.
Resumo:
Para o desenvolvimento de sistemas interativos que respeitem critérios de usabilidade em adição aos critérios de qualidade convencionais, é necessário que, desde suas primeiras etapas, as áreas de Engenharia de Software (ES) e de Interação Humano- Computador (IHC) sejam consideradas, simultaneamente e de maneira integrada. Essas duas áreas investigam modelos, conceitos, técnicas e práticas que refletem diferentes perspectivas sobre a atividade de desenvolvimento, uma orientada mais ao sistema (ES) e outra, mais ao usuário (IHC). Para conciliar estas perspectivas, é necessário o estabelecimento de um entendimento mútuo e a utilização conjunta e integrada de conceitos, técnicas e práticas de desenvolvimento de ambas as áreas. Este trabalho visa mostrar as possibilidades desta integração, através da combinação dos conceitos de Casos de Uso (Use Cases) e Cenários (Scenarios), importantes técnicas de modelagem amplamente utilizadas respectivamente nas áreas de ES e IHC, em diferentes contextos, com diferentes visões; mas apresentando similaridades valiosas para propiciarem o uso complementar de ambas as técnicas. Para sistematizar esta integração, é proposta uma abordagem teleológica – baseada em objetivos – de construção sistemática de casos de uso com quatro diferentes níveis de abstração, desde os mais abstratos casos de uso essenciais até os cenários, aqui utilizados como instâncias concretas de casos de uso. Com esta abordagem, pretende-se construir um modelo de casos de uso que permita especificar requisitos funcionais, conjuntamente com requisitos de interação, de maneira compreensível e praticável e que sirva como ponto de partida à continuidade do desenvolvimento orientado a objetos de software. Com o intuito de exemplificar a proposta, é descrita e discutida a aplicação passo a passo desta abordagem a um exemplo.
Resumo:
A manipulação no período neonatal tem sido utilizada há algumas décadas como modelo experimental para analisar os mecanismos pelos quais variações precoces no ambiente do animal afetam o desenvolvimento de sistemas neurais, dando origem a alterações comportamentais e neuroendócrinas estáveis na vida adulta. Nos ratos, a manipulação neonatal consiste do manuseio suave dos filhotes nos primeiros dias de vida em geral, durante as duas semanas após o parto. Quando adultos, os animais submetidos a essa manipulação apresentam uma menor secreção de glicocorticóides pela adrenal quando expostos a estímulos estressores, e um retorno mais rápido à concentração plasmática basal quando comparados aos ratos não manipulados. Trabalhos prévios demonstram que além de alterar o eixo hipotálamo-hipófise-adrenal, a manipulação pode alterar o eixo hipotálamo-hipófise-gônadas, ratas manipuladas apresentam ciclos anovulatórios e uma diminuição do comportamento sexual. Com isso, o nosso objetivo nesse trabalho foi analisar o perfil de secreção de estradiol e progesterona em ratas manipuladas no período neonatal nas quatro fases do ciclo estral, como também, verificar o efeito da manipulação sobre as concentrações plasmáticas de LH e FSH em ratas ovariectomizadas e com reposição hormonal No experimento I foram estudados dois grupos de ratas adultas: não manipuladas (fêmeas que nos 10 primeiros dias de vida não foram tocadas pelo experimentador ou tratador); e manipuladas (ratas que nos 10 primeiros dias pós-parto foram diariamente manipuladas pelo experimentador por 1 minuto, retornando para a mãe logo em seguida). Quando adultas, o ciclo estral das ratas foi controlado, e aquelas com 3 a 4 ciclos regulares seguidos tiveram a veia jugular externa canulada em cada uma das fases do ciclo estral (metaestro, diestro, estro e proestro). No dia seguinte ao da cirurgia às 8 horas da manhã, iniciaram-se as coletas de sangue (800µL) de 3 em 3 horas. O sangue foi centrifugado, o plasma coletado e destinado ao radioimunoensaio para estradiol e progesterona. As ratas cujo sangue foi coletado no proestro tiveram o número de óvulos contados na manhã seguinte. No experimento II, as ratas manipuladas e não manipuladas foram ovariectomizadas e 3 semanas após receberam injeções subcutâneas de estradiol por 3 dias consecutivos às 9 horas da manhã, no quarto dia receberam progesterona às 10 horas e às 11 horas tiveram a veia jugular canulada Neste mesmo dia às 13 horas, iniciaram-se as coletas de sangue (600µL) que foram realizadas de hora em hora, até às 18 horas. O sangue foi centrifugado o plasma coletado e destinado ao radioimunoensaio para LH e FSH. Os resultados mostraram que as ratas manipuladas no período neonatal apresentam uma redução nas concentrações plasmáticas de estradiol no proestro e de progesterona no metaestro e no estro comparadas às não manipuladas. O número de óvulos encontrados na manhã do estro está reduzido nas ratas manipuladas quando comparado às não manipuladas, confirmando resultados prévios. A alteração destes esteróides gonadais pode explicar a redução do número de óvulos das fêmeas manipuladas. As concentrações plasmáticas de LH e de FSH não são diferentes entre os dois grupos, indicando que a responsividade do eixo hipotálamo-hipófise parece não ser alterada pela manipulação, no entanto é necessário realizar mais experimentos para que afirmações possam ser feitas a respeito da responsividade do eixo.