133 resultados para medida de intervalos de tempo sucessivos
Resumo:
Objetivo: métodos antropométricos que quantifiquem as curvas da coluna vertebral e a avaliação postural a fim de realizar investigações epidemiológicas sobre o papel da postura na ocorrência das dores lombares. O propósito do estudo foi avaliar acurácia e reprodutibilidade do Sistema de Avaliação Postural Digitalizado (SAPD) para medir lordose lombar comparando com raio-x. Delineamento: transversal, com amostra consecutiva. Participantes: para medida da acurácia no grupo 1 ( T12,L3,L5) n = 16 e grupo 2 (L1,L3,L5) n= 17. Na reprodutibilidade intra e inter-avaliador n= 80. Principais Medidas: marcadores externos nos processos espinhosos das vértebras T12, L1, L3 e L5. Raio-x de perfil da coluna lombar e foto digital em perfil direito. Medida da lordose lombar no raio-x com métodos de Cobb,Centróide (CLL) e Processos Espinhosos (PE) e com o SAPD. Resultados: grupo 1, correlação entre SAPD e Cobb foi 0,803 (p<0,001), entre SAPD e CLL foi 0,642 (p=0,024), entre SAPD e a medida dos PE a correlação foi 0,917, com R2 = 0,842. No grupo 2, correlação entre SAPD e Cobb foi 0,559 (p=0,020), entre SAPD e CLL de 0,325 (p=0,302), com correlação significativa somente entre SAPD e Cobb. Entre SAPD e PE a correlação foi 0,763, com R2 = 0,583. Para reprodutibilidade interavaliador a correlação foi 0,981 (p < 0,001) e para reprodutibilidade intra-avaliador de 0.978 (p < 0,001) referente às mesmas fotografias. Reprodutibilidade intraavaliador de 0.872 (p < 0.001) e 0.956 (p<0,001) para inter-avaliador referente à fotos diferentes de um mesmo indivíduo com recolocação dos marcadores sobre a pele . Considerações Finais: O SAPD mostrou-se acurado e reprodutível para a medida da lordose lombar.
Resumo:
A pecuária leiteira tem uma importante participação na economia do setor primário do Sul do Brasil, porém, custos de produção elevados, impacto ambiental e qualidade dos produtos tem limitado sua viabilidade econômica. Entretanto, na busca por sistemas sustentáveis de produção depara-se com uma grande escassez de informações. Este trabalho pretendeu contribuir com a geração de conhecimentos que possam ser facilmente adotados pelos produtores da Região do Planalto Riograndense, através da condução da pesquisa em duas etapas: inicialmente foi desenvolvido um estudo baseado em procedimentos de pesquisa diagnóstica aplicados em 46 propriedades que incluiu características infra-estruturais, ambientais, sociais e técnico-econômicas. Em um segundo momento, realizou-se a comparação de dois sistemas de condução dos animais em pastagens, propostos a partir de características apontadas como relevantes no diagnóstico realizado, definindo os seguintes tratamentos: T 1: onde os animais tiveram acesso à pastagem por um período de 3 h/dia, e, T 2: onde os animais tiveram livre acesso à pastagem, ambos, mantidos em pastejo sobre sorgo forrageiro (Sorghum vulgare) e trevo branco (Trifolium repens L.) em pastejo rotativo, recebendo suplementação protéica e energética Os resultados do diagnóstico indicaram uma elevada importância das características de infraestrutura e de questões técnicas relativas à exploração leiteira, onde destacam-se variáveis relacionadas à questões de manejo e alimentação do rebanho. Os sistemas de pastejo apresentaram diferença significativa (p<0,01), na produção de leite, produzindo 16,6 e 18,9 L/dia, para T1 e T2, respectivamente. Com a obtenção desses resultados, fica evidenciado que animais de bom potencial genético, proporcionam respostas positivas de produtividade a medida que lhes é permitido maior tempo de permanência em pastagens de qualidade, ofertadas em quantidade suficiente possibilitando a expressão do potencial do animal em selecionar a sua dieta.
Resumo:
Dados volumétricos temporais são usados na representação de fenômenos físicos em várias aplicações de visualização científica, pois tais fenômenos são complexos, alteram-se com o tempo e não possuem uma forma de representação definida. Uma solução é usar amostragens sobre um espaço de forma geométrica simples que contém o fenômeno (um cubo, por exemplo), discretizado ao longo de uma grade em células de mesmo formato e usualmente chamado de volume de amostragem. Este volume de amostragem representa um instante da representação do fenômeno e, para representar dados temporais, simplesmente enumera-se tantos volumes quanto forem as diferentes instâncias de tempo. Esta abordagem faz com que a representação seja extremamente custosa, necessitando de técnicas de representação de dados para comprimir e descomprimir os mesmos. Este trabalho apresenta uma nova abordagem para compressão de volumes de dados temporais que permite a visualização em tempo real destes dados usando hardware gráfico. O método de compressão usa uma representação hierárquica dos vários volumes de dados dentro da memória do hardware gráfico, referenciados pelo hardware como texturas 3D. O método de compressão tem melhor desempenho para dados volumétricos esparsos e com alto grau de coerência (espacial e temporal). A descompressão destes dados é feita por programas especiais que são executados no próprio hardware gráfico. Um estudo de caso usando o método de compressão/descompressão proposto é apresentado com dados provenientes do Projeto MAPEM (Monitoramento Ambiental em Atividades de Perfuração Exploratória Marítima). O objetivo do projeto é propor uma metodologia para o monitoramento dos efeitos das descargas de materiais no ecossistema marinho durante a perfuração de um poço de petróleo. Para estimar certos descarregamentos de fluidos, o projeto usa um simulador CFD que permite mostrar tais descarregamentos, gerando grades planares e uniformes 2D ou 3D em qualquer instante de tempo durante a simulação.
Resumo:
Uma das maiores dificuldades encontradas pelos técnicos envolvidos na elaboração da previsão do tempo é a falta de integração entre o software de visualização usado por eles e os programas usados para escrever os boletins. Os previsores necessitam de um meio rápido e fácil de gerar previsões com outras formas de apresentação, além do formato de texto em que ela normalmente é produzida. A partir do estudo dessas dificuldades, formulou-se a hipótese de que seria benéfico criar uma linguagem visual para a criação da previsão do tempo, que permitisse gerar tanto o texto de um boletim meteorológico quanto as imagens correspondentes. Este trabalho descreve a especificação dessa linguagem, à qual se deu o nome de Pythonissa. Ela foi definida usando o formalismo de grafos e se constitui de um modelo da estrutura de um boletim de previsão do tempo. Em Pythonissa, cada região geográfica para a qual é feita a previsão é representada por um vértice em um grafo. Os fenômenos presentes na região também são representados por vértices, de outros tipos, ligados à região por arestas que denotam sua presença. Cada tipo de vértice e aresta tem mapeamentos para representações gráficas e para elementos de controle em uma interface com o usuário. A partir da linguagem, foi implementado um protótipo preliminar, no qual é possível criar um boletim de por meio de uma interface visual e gerar o texto e a imagem correspondentes. Foi dado início, também, à construção de um framework para integração da linguagem a um ambiente de visualização de dados, de modo a produzir uma aplicação utilizável em um ambiente de trabalho real. Para isto foram usados o software de visualização Vis5D e a linguagem de scripts Python. A este framework, se deu o nome de Py5D.
Resumo:
A utilização de conceitos de representação temporal tem sido essencial em diversas aplicações de banco de dados, por permitir o armazenamento e a manipulação dos diferentes estados assumidos pela base de dados ao longo do tempo. Durante a evolução da base de dados, através do conceito de bitemporalidade, obtém-se acesso a informações presentes, passadas e futuras. Já o conceito de versionamento permite a existência de diversas alternativas para a evolução da base de dados, possibilitando um processo de evolução ramificada, em oposição ao usual mecanismo de evolução linear do conteúdo da base. Com a migração de tais aplicações para um ambiente Web, estas passam cada vez mais a utilizar a linguagem XML como formato de representação e intercâmbio de seus dados. Tornam-se necessários, dessa forma, mecanismos para a representação e manipulação da história do conteúdo de um documento XML que sofre modificações com o passar do tempo. Apesar da existência de propostas de extensão temporal de modelos de dados convencionais e de estratégias para o armazenamento de documentos XML em modelos convencionais, a natureza semi-estruturada dos documentos XML faz com que seja necessário definir um novo modelo de dados temporal, capaz de lidar com os conceitos de bitemporalidade e versionamento em um documento semiestruturado. O objetivo deste trabalho é definir um modelo que, ao contrário das demais propostas existentes, combine os conceitos de bitemporalidade e de versionamento em uma única abordagem capaz de permitir o tratamento da evolução do conteúdo de documentos XML. O uso conjunto desses dois recursos visa combinar o poder de expressão de cada um, garantindo uma maior flexibilidade na representação do histórico dos documentos XML. O modelo resultante recebeu o nome de Tempo e Versões em XML, ou simplesmente TVX, composto por três partes: um modelo para a organização lógica dos dados, uma linguagem de consulta e uma linguagem para promover alterações ao conteúdo dos documentos XML.
Resumo:
Uma das principais características do hipocampo após a isquemia é a vulnerabilidade diferencial das células da região CA1 e DG à morte celular. Os neurônios granulares do DG são resistentes, enquanto que os neurônios piramidais da região CA1 são mais sensíveis. Nosso objetivo nesse estudo foi investigar o possível envolvimento da via de sinalização celular PI3K, uma via que possui efeito proliferativo e antiapoptótico, e das proteínas de choque térmico (HSPs) no fenômeno da vulnerabilidade seletiva. Para isso foram usadas culturas organotípicas de hipocampo de ratos Wistar de 6-8 dias. As culturas foram tratadas com o inibidor da PI3K, LY294002 (LY), nas doses 10μM e 50μM. A morte celular foi quantificada pela medida da incorporação de iodeto de propídeo e da atividade das caspases 3 e 7. Alterações na fosforilação e no imunoconteúdo das proteínas foram obtidas com o uso de anticorpos específicos. Os resultados mostraram que a região do DG parece responder de forma tempo dependente e precocemente à presença da droga, sugerindo uma importância da via nessa região. Para investigar se a proteína AKT, uma cinase ativada por PI3K, estava envolvida na vulnerabilidade seletiva das células às condições de privação de oxigênio e glicose (POG), medimos a fosforilação e o imunoconteúdo dessa cinase após 60 minutos de POG seguida dos tempos de recuperação de 30 minutos, 6 horas e 24 horas. Nenhuma alteração foi observada nesses parâmetros, sugerindo que , nesse caso, a fosforilação da AKT não está envolvida na vulnerabilidade seletiva. Quando o imunoconteúdo da HSP27 e da HSP70 foi investigado após as condições de POG em ambas as áreas do hipocampo, não foi observada nenhuma alteração na HSP27 nos tempos de recuperação escolhidos. Por outro lado, observou-se aumento no imunoconteúdo da HSP70 em ambas as regiões 24 horas após a exposição às condições de POG, sendo este maior no CA1. Quando as quantidades das HSPs nas duas regiões em condições basais foram comparadas, observou-se que ambas estão em maior quantidade na região do DG. Esta diferença poderia estar relacionada com a resistência à morte celular observada no DG, uma vez que, possuindo maior quantidade HSPs, estas poderiam atuar como protetoras contra a morte. Esses resultados sugerem que a via de sinalização da PI3K pode estar envolvida na vulnerabilidade seletiva observada no hipocampo em resposta à condições de POG, e esta não envolve alterações na fosforilação da AKT. Por outro lado, HSP27 e HSP70 podem estar envolvidas no fenômeno da vulnerabilidade seletiva, protegendo o DG das lesões.
Resumo:
Vive-se em um mundo no qual as relações humanas se tornam cada vez mais precárias, fenômeno exemplificado por diversos conflitos espalhados pelo planeta e pela crescente exclusão social, a qual afeta quase que a totalidade das sociedades. Neste cenário, a Economia Popular e Solidária se apresenta como uma alternativa de geração de trabalho e renda, representando uma forma de desenvolvimento sócio-econômico no Brasil. Este trabalho, por meio de um estudo de caso em uma associação de reciclagem de resíduos sólidos, tem como objetivos investigar em que medida as relações entre os membros da organização são perpassadas pela confiança e, ao mesmo tempo, estudar o significado do construto para os próprios membros da organização. As conclusões apontam que a confiança ainda se encontra muito timidamente presente nas relações mencionadas e que a honra, a empatia e a intuição são importantes elementos para o entendimento do conceito segundo a ótica dos participantes.
Resumo:
A Estatística é uma ferramenta indispensável em todos os campos científicos. A Estatística descritiva é usada para sintetizar dados. O principal problema desta área está relacionado aos valores de uma amostra, os quais geralmente possuem erros que ocorrem durante a obtenção dos dados. Um dos objetivos deste trabalho é apresentar uma forma de representação para os valores amostrais que considera os erros contidos nestes valores. Esta representação é realizada através de intervalos. A literatura mostra que foram realizadas pesquisas somente em problemas de calcular os valores intervalares das medidas de dispersão variância, covariância e coeficiente de correlação, que a utilização da computação intervalar na solução de problemas de medidas de dispersão intervalar sempre fornece solução com intervalos superestimados (intervalos com amplitude grande), e que ao procurar uma solução com intervalos de amplitude pequena (através da computação da imagem intervalar), o problema passa a pertencer a classe de problemas NP-Difícil. Com o objetivo principal de analisar a complexidade computacional dos problemas de computar os valores dos indicadores estatísticos descritivos com entradas intervalares, e realizar uma classificação quanto a classe de complexidade, a presente tese apresenta: i) definições intervalares de medidas de tendência central, medidas de dispersão e separatrizes; ii) investigação da complexidade de problemas das medidas de tendência central média, mediana e moda, das medidas de dispersão amplitude, variância, desvio padrão, coeficiente de variação, covariância, coeficiente de correlação e das separatrizes e iii) representação intervalar dos valores reais, de tal modo que garante a qualidade de aproximação nos intervalos solução calculado através da extensão intervalar Primeiramente, apresentamos uma abordagem intervalar para os indicadores estatísticos e propomos algoritmos para a solução dos problemas de computar os intervalos de medidas de tendência central intervalar, dispersão intervalar e separatrizes intervalares. Tais algoritmos utilizam a aritmética intervalar definida por Moore, a extensão intervalar e foram projetados para serem executados em ambientes intervalares como IntLab e Maple Intervalar. Por meio da análise da complexidade computacional verificamos que os problemas de medidas de tendência central, dispersão e separatrizes, com entradas intervalares, pertencem à classe de problemas P. Este trabalho apresenta, portanto, algoritmos de tempo polinomial que calculam os intervalos dos indicadores estatísticos com entradas intervalares, e que retornam como solução intervalos com qualidade de aproximação. Os resultados obtidos no desenvolvimento do trabalho tornaram viável a computação da Estatística Descritiva Intervalar.
Resumo:
Foram conduzidos dois ensaios de metabolismo com suínos em crescimento para avaliar o efeito do tratamento térmico sobre a digestibilidade de grão de soja integral. No ensaio 1 foram utilizados 18 animais distribuídos em 6 dietas, à base de amido de milho e grão de soja, em um arranjo fatorial 3*2, composto por três tratamentos de calor submetidos ao grão (cru, AUTOCLAVADO e AUTOCLAVADO o dobro tempo) e dois níveis de lisina (85 e 100% das exigências do NRC (1988)). No ensaio 2 foram utilizados 18 suínos distribuídos em 18 dietas, à base de amido de milho e grão de soja (autoclavado ou autoclavado o dobro tempo) em um arranjo fatorial 3x3x2, composto por três níveis de lisina (80, 100 e 120% NRC (1988)), três suplementações de aminoácidos (0, metionina e treonina) dois tempos de tratamento térmico (autoclavado e dobro do tempo). No ensaio 1 foi observado efeito do tratamento térmico (P< 0,004) e do nível de lisina (P= 0,009) sobre o ganho de peso e do tratamento térmico (P= 0,006) sobre o consumo de matéria seca. Não foram observados efeitos do tratamento térmico e do nível de lisina sobre os coeficientes de digestibilidade da matéria seca, da proteína e da energia das dietas. No ensaio 2 foi observado efeito do nível de lisina (P= 0,008) sobre a excreção fecal de proteína bruta e de energia bruta (P= 0,003) e do tratamento térmico sobre a excreção fecal da energia bruta (P= 0,04).
Resumo:
Teorias de calibre formuladas em um espaço-tempo não cumulativo têm sido intensamente estudadas nos últimos anos. O interesse nesse assunto possui motivações provenientes da teoria de cordas. Uma das propriedades mais notáveis das teorias das não-cumulativas consiste de uma estrutura não usual de divergências,a chamada mistura UV/IR, que pode levar ao aparecimento de divergências infravermelhas não integráveis. A eliminação de tais divergências é crucial já que elas podem provocar o colapso da série pertubativa. Modelos não- cumulativos supersimétricos tem um lugar proeminente entre as teorias de campo fisicamente interessantes, uma vez que a supersimetria favorece o cancelamento das divergências perigosas. Eles são os melhores candidatos num programa para definir teorias de campo não-cumulativas consistentes. Neste trabalho investigamos a QED e Yang-Mills não-cumulativos supersimétricos em três dimensões usando o formalismo de supercampos. Para o caso abeliano provamos que a mistura UV/IR não é fonte de divergências infravermelhas não integráveis. Além disso, o modelo resulta ser finito na aproximação de um laço. O mesmo se aplica ao caso abeliano porém apenas na representação fundamental do grupo de calibre.
Resumo:
Esta dissertação mapeia a rede de relações intertextuais em Half a Life (2001) e sua continuação Magic Seeds (2004), os romances mais recentes do Prêmio Nobel de Literatura de 2001, V. S. Naipaul, como contribuição para o estudo da obra do autor. A noção de intertextualidade permeia os estudos literários, e o termo tem sido largamente empregado desde que foi cunhado por Julia Kristeva nos anos sessenta. Desde então as mais variadas, e muitas vezes divergentes, teorias sobre intertextualidade compartilham a idéia de que um texto só adquire significado pleno na interação com outros textos. A abordagem metodológica proposta é baseada na teoria da transtextualidade de Gérard Genette. Esta escolha implica o estudo de intertextos, paratextos, metatextos, arquitextos e hipertextos que constituem a interface entre os dois romances e outros escritos. O nome do protagonista "William Somerset Chandran" constitui o fio que guia o estudo das várias relações transtextuais nos dois romances. A partir do prenome do protagonista – William – este estudo situa os romances no contexto da tradição do Bildungsroman, e argumenta que estes estabelecem uma paródia arquitextual do gênero na medida em que subvertem seu cerne, ou seja, a formação do caráter do protagonista. O nome do meio do protagonista – Somerset – remete à ficcionalização do escritor Somerset Maugham na narrativa, ao mesmo tempo em que esta desmistifica a ótica ocidental sobre o hinduísmo popularizada por Maugham em The Razor's Edge. O sobrenome do protagonista – Chandran – leva ao estudo do conjunto de referências à origem indiana de Naipaul e o papel desta na produção do autor. Este nome se reporta ao romance de Narayan The Bachelor of Arts, cujo protagonista também é nomeado Chandran. Narayan é um escritor de destaque na literatura anglo-indiana e referência recorrente na obra de Naipaul. Os temas de migração e choque cultural apresentados nos dois romances têm sido presença constante na obra de Naipaul. Esta pesquisa mapeia a relação de continuidade entre os dois romances em questão e o conjunto da obra de Naipaul, salientando o papel da ambientação geográfica da narrativa, marcada pela jornada do protagonista através de três continentes. A teoria da transtextualidade é uma ferramenta operacional para a pesquisa, a qual examina a densidade das referências geográficas, históricas e literárias em Half a Life e Magic Seeds, visando aportar elementos para o estudo da produção literária de Naipaul, na medida em que estes romances recentes condensam e revisitam a visão de mundo deste autor.
Resumo:
A utilização de versões permite o armazenamento de diferentes alternativas de projeto no desenvolvimento de uma aplicação. Entretanto, nem todo o histórico das alterações aplicadas sobre os dados é registrado. Modificações importantes podem ser realizadas e os valores anteriores são perdidos. O histórico completo somente é acessível através da junção de versões com um modelo temporal. Os conceitos de tempo e de versão aplicados em conjunto possibilitam a modelagem de aplicações complexas. Uma extensão que implemente simultaneamente estes dois conceitos em um banco de dados comercial não está disponível. O Modelo Temporal de Versões (TVM – Temporal Version Model) fornece a base para esta funcionalidade. O objetivo deste trabalho é projetar um extender para oferecer suporte aos conceitos de tempo e versão no sistema DB2, utilizando como base o TVM. A extensão engloba o mapeamento da hierarquia do TVM; a criação de tabelas administrativas; procedimentos para especificação das classes, atributos e relacionamentos; a definição de gatilhos e restrições para a manipulação dos dados diretamente nas tabelas criadas; e a especificação de procedimentos e UDFs para controle de versões e valores temporais e de outras UDFs que permitem consultas envolvendo os dois conceitos. Apesar do SGBD não ser totalmente orientado a objetos, como é definido no modelo utilizado (TVM), oferece mecanismos que permitem o mapeamento para um modelo objetorelacional. Através da utilização desta extensão, a união de tempo e de versões pode ser utilizada em aplicações reais.
Resumo:
As larvas de Dione juno juno (Cramer, 1779) (Lepidoptera: Nymphalidae) alimentam-se de plantas da família Passifloraceae e apresentam hábito gregário, características que interferem na sua performance. O significado ecológico deste hábito parece centrar-se na defesa contra predação, na termorregulação e na facilitação alimentar. Neste trabalho, dez espécies de passifloráceas ocorrentes no Rio Grande do Sul foram avaliadas em relação à preferência alimentar e performance larval de D. juno juno: Passifora alata Dryander, 1781; P. amethystina Mikan, 1820; P. caerulea Linnaeus, 1753; P. capsularis Linnaeus, 1753; P. edulis Sims, 1818; P. elegans Masters, 1872; P. misera Humbold, Bonpland et Kunth, 1817; P. suberosa Linnaeus, 1753; P. tenuifila Killip, 1927 e P. warmingii Masters, 1872. O efeito da densidade larval na performance foi também testado em P. edulis: grupos de uma, duas, quatro, oito, dezesseis, trinta e duas, e sessenta e quatro larvas. A preferência alimentar das larvas foi avaliada com base em testes utilizando-se discos foliares, com e sem chance de escolha. O efeito da densidade larval na performance foi testado em P. edulis: grupos de uma, duas, quatro, oito, dezesseis, trinta e duas e sessenta e quatro larvas Avaliou-se o efeito da agregação larval na termorregulação e/ou na termoconformação, e na facilitação alimentar. Em laboratório (fotofase de 14 horas, 75 + 5% UR), estimou-se suas exigências térmicas e, em campo, investigou-se a variação sazonal e o grau de desfolha das plantas. O efeito da agregação larval na termorregulação e na termoconformação foi avaliado criando-se larvas em P. edulis. Foram testadas três densidades: grupos de uma, cinco e dez larvas, que foram mantidas em quatro temperaturas (15, 20, 25 e 30ºC) em câmaras climatizadas. A temperatura do corpo das larvas agregadas e isoladas foi medida com um termômetro digital em duas situações: expostas ao sol e mantidas na sombra, em diferentes temperaturas do ambiente. O papel da agregação larval na facilitação alimentar foi investigado com ênfase na caracterização e análise de suas mandíbulas, sua forma de alimentação, bem como seu efeito na taxa de consumo. Comparou-se a área foliar de P. edulis consumida per capita entre os grupos de uma, três, cinco, sete, nove, dez e onze larvas. Investigou-se o desgaste das mandíbulas, bem como o tipo de dano causado às folhas Comparou-se, também, o número de larvas que se alimentaram em grupos de uma, cinco e dez larvas. Em campo, foram realizados levantamentos quinzenais, anotando-se o número de imaturos e o grau de desfolha da planta hospedeira, durante trinta meses. Em relação às plantas hospedeiras, concluiu-se que nem sempre a que lhe confere melhor performance é a escolhida pelas larvas. Ocorreu grande mortalidade no primeiro ínstar em todas as plantas testadas. A sobrevivência aumentou consideravelmente, a partir de oito larvas por grupo. As larvas deste inseto têm capacidade de efetuar tanto termorregulação quanto termoconformação. Não foi observado desgaste das mandíbulas, ao longo da ontogênese. Observou-se um maior número de larvas em atividade de alimentação e um maior consumo per capita quando criadas em grupo. Os resultados demonstraram que o forrageio em grupos acentua a eficiência alimentar das larvas. A viabilidade dos ovos e a sobrevivência larva-pupa foram maiores a 20 e 25ºC. O período de incubação e o tempo de desenvolvimento larval e pupal decresceram com o aumento de temperatura, quando as larvas foram criadas em grupos de dez. As temperaturas bases estimadas foram de 5,3ºC para a fase ovo, 8,4 ºC para larva e 9ºC para a pupa. As constantes térmicas foram de 126,6 graus dias para a fase ovo, 312,5 graus dias para larva e 141 graus dias para pupa. D. juno juno esteve presente em baixos níveis populacionais em quase todos os meses do ano com picos em novembro/dezembro de 2001/2 e janeiro de 2003. O índice de desfolha foi baixo em todas as ocasiões, exceto nos meses de maior densidade larval.
Resumo:
Este trabalho aborda o desenvolvimento de uma arquitetura de controle em tempo real para servoposicionadores pneumáticos, baseada em computadores pessoais (PCs). Os servoposicionadores pneumáticos são de baixo custo, leves, não poluentes e de fácil utilização. Como apresentam boa relação entre peso e força, são bastante atraentes em aplicações de robótica. Entretanto, devido a suas não linearidades, os servoposicionadores pneumáticos apresentam dificuldades em seu controle. Visando compensá-las, são desenvolvidos algoritmos de controle cada vez mais complexos, necessitando de ferramentas mais robustas quanto ao poder de processamento. Ferramentas com características necessárias para o desenvolvimento de algoritmos e para o controle em tempo real de sistemas custam caro, o que dificulta o desenvolvimento de novas tecnologias de controle de servoposicionadores pneumáticos. Este trabalho apresenta uma revisão das soluções utilizadas na construção de sistemas pneumáticos de posicionamento e daquelas adotadas no controle digital de sistemas automáticos. Descrevese o processo de construção de uma bancada experimental, e o desenvolvimento das soluções em hardware e software para o controle digital é discutido. Visando uma solução economicamente atraente, são utilizados unicamente softwares de código aberto e de livre utilização, assim como hardwares de baixo custo.Para verificar a eficiência da solução proposta, a arquitetura de controle é utilizada para realizar a identificação dos parâmetros do sistema pneumático. Dentre eles, destacam-se a vazão mássica e o atrito, informações importantes para simulação e controle do sistema. Também são utilizados controladores do tipo Proporcional-Integral-Derivativo, implementados para apoiar o estudo do desempenho da arquitetura no controle do servoposicionador pneumático.
Resumo:
O objetivo deste trabalho foi o de explorar um fenômeno representativo da capacidade de memória autobiográfica, a recordação de eventos marcantes. A experiência de recordar eventos únicos de forma vívida mesmo depois de longos intervalos foi freqüentemente abordada na história do pensamento filosófico e psicológico. De acordo com o modelo de processos componentes (MPC) da memória autobiográfica, a recordação autobiográfica caracteriza-se por um estado de consciência cujas qualidades fenomenais estabelecem um senso de re-experiência e de viagem de volta ao tempo do evento original. Entre os processos cognitivos que compõem a recordação, encontra-se a imaginação em diversas modalidades sensoriais, linguagem, narrativa, e emoção. Dentre os julgamentos que o indivíduo executa sobre o evento e a memória dele, destaca-se a relevância pessoal, a raridade, e a emocionalidade do evento, a especificidade da memória e a freqüência com que foi ensaiada. Três estudos investigaram qualidades fenomenais da recordação e julgamentos de eventos marcantes através do Questionário de Memória Autobiográfica (AMQ), em delineamentos que contrastaram recordações de eventos marcantes com outros tipos de memórias autobiográficas. Os resultados indicaram que as variáveis que sistematicamente diferenciaram as memórias eventos marcantes ao longo dos experimentos foram aquelas referentes a julgamentos reflexivos de características de memórias vívidas, ou em lampejo (flashbulb memories): importância pessoal, intensidade emocional, conseqüências pessoais, ensaio repetido e caráter incomum do evento. Esses resultados indicam que a escolha de eventos significativos está relacionada mais a julgamentos reflexivos sobre os eventos do que a qualidades fenomenais da lembrança, embora haja interações entre esses dois conjuntos de variáveis.