963 resultados para Mangaba - Armazenamento
Resumo:
Os sistemas computacionais estão tomando proporções cada vez maiores envolvendo situações bastante complexas, onde muitas vezes erros são inaceitáveis, como em sistemas bancários, sistemas de controle de tráfego aéreo, etc... Para obter software confiável e com desempenho aceitável, pode-se aliar técnicas de desenvolvimento formal de software a técnicas de simulação de sistemas. O ambiente PLATUS reúne essas duas áreas: modelos de simulação são descritos usando gramáticas de grafos uma linguagem de especificação formal. Gramáticas de grafos são uma generalização de gramáticas de Chomsky, substituindo strings por grafos. Neste trabalho, serão tratadas gramáticas de grafos baseados em objetos, um modelo onde vértices e arcos são tipados, e as especificações são modulares (a especificação de um sistema consiste em várias gramáticas de grafos combinadas). Assim, o modelo de um sistema pode ser descrito de forma precisa, e a linguagem de especificação é bastante abstrata e expressiva. Num ambiente de simulação a questão da recuperação de dados merece uma atenção especial, uma vez que a eficiência do simulador está diretamente ligada a agilidade na obtenção das informações. Neste trabalho, o objetivo principal é definir uma representação para gramáticas de grafos que facilite o armazenamento, a recuperação e análise das estruturas identificadas no ambiente PLATUS, ou seja, gramáticas de grafos baseadas em objetos. São definidas também funções que implementam os procedimentos necessários, para a recuperação de dados durante a simulação. A eficiência dessas funções é demonstrada através do cálculo de sua ordem de complexidade. As estruturas são validadas através da implementação de um protótipo de banco de dados.
Resumo:
A utilização de versões permite o armazenamento de diferentes alternativas de projeto no desenvolvimento de uma aplicação. Entretanto, nem todo o histórico das alterações aplicadas sobre os dados é registrado. Modificações importantes podem ser realizadas e os valores anteriores são perdidos. O histórico completo somente é acessível através da junção de versões com um modelo temporal. Os conceitos de tempo e de versão aplicados em conjunto possibilitam a modelagem de aplicações complexas. Uma extensão que implemente simultaneamente estes dois conceitos em um banco de dados comercial não está disponível. O Modelo Temporal de Versões (TVM – Temporal Version Model) fornece a base para esta funcionalidade. O objetivo deste trabalho é projetar um extender para oferecer suporte aos conceitos de tempo e versão no sistema DB2, utilizando como base o TVM. A extensão engloba o mapeamento da hierarquia do TVM; a criação de tabelas administrativas; procedimentos para especificação das classes, atributos e relacionamentos; a definição de gatilhos e restrições para a manipulação dos dados diretamente nas tabelas criadas; e a especificação de procedimentos e UDFs para controle de versões e valores temporais e de outras UDFs que permitem consultas envolvendo os dois conceitos. Apesar do SGBD não ser totalmente orientado a objetos, como é definido no modelo utilizado (TVM), oferece mecanismos que permitem o mapeamento para um modelo objetorelacional. Através da utilização desta extensão, a união de tempo e de versões pode ser utilizada em aplicações reais.
Resumo:
Sistemas de informações geográficas (SIG) permitem a manipulação de dados espaço-temporais, sendo bastante utilizados como ferramentas de apoio à tomada de decisão. Um SIG é formado por vários módulos, dentre os quais o banco de dados geográficos (BDG), o qual é responsável pelo armazenamento dos dados. Apesar de representar, comprovadamente, uma fase importante no projeto do SIG, a modelagem conceitual do BDG não tem recebido a devida atenção. Esse cenário deve-se principalmente ao fato de que os profissionais responsáveis pelo projeto e implementação do SIG, em geral, não possuem experiência no uso de metodologias de desenvolvimento de sistemas de informação. O alto custo de aquisição dos dados geográficos também contribui para que menor atenção seja dispensada à etapa de modelagem conceitual do BDG. A utilização de padrões de análise tem sido proposta tanto para auxiliar no projeto conceitual de BDG quanto para permitir que profissionais com pouca experiência nessa atividade construam seus próprios esquemas. Padrões de análise são utilizados para documentar as fases de análise de requisitos e modelagem conceitual do banco de dados, representando qualquer parte de uma especificação de requisitos que tem sua origem em um projeto e pode ser reutilizada em outro(s). Todavia, a popularização e o uso de padrões de análise para BDG têm sido prejudicados principalmente devido à dificuldade de disponibilizar tais construções aos projetistas em geral. O processo de identificação de padrões (mineração de padrões) não é uma tarefa simples e tem sido realizada exclusivamente com base na experiência de especialistas humanos, tornando o processo lento e subjetivo. A subjetividade prejudica a popularização e a aplicação de padrões, pois possibilita que tais construções sejam questionadas por especialistas com diferentes experiências de projeto. Dessa forma, a identificação ou o desenvolvimento de técnicas capazes de capturar a experiência de especialistas de forma menos subjetiva é um passo importante para o uso de padrões. Com esse objetivo, este trabalho propõe a aplicação do processo de descoberta de conhecimento em banco de dados (DCBD) para inferir candidatos a padrão de análise para o projeto de BDG. Para tanto, esquemas conceituais de BDG são usados como base de conhecimento. DCBD é o processo não trivial de descoberta de conhecimento útil a partir de uma grande quantidade de dados. Durante o desenvolvimento da pesquisa ficou claro que a aplicação do processo de DCBD pode melhorar o processo de mineração de padrões, pois possibilita a análise de um maior número de esquemas em relação ao que é realizado atualmente. Essa característica viabiliza que sejam considerados esquemas construídos por diferentes especialistas, diminuindo a subjetividade dos padrões identificados. O processo de DCBD é composto de várias fases. Tais fases, assim como atividades específicas do problema de identificar padrões de análise, são discutidas neste trabalho.
Resumo:
The number of research papers available today is growing at a staggering rate, generating a huge amount of information that people cannot keep up with. According to a tendency indicated by the United States’ National Science Foundation, more than 10 million new papers will be published in the next 20 years. Because most of these papers will be available on the Web, this research focus on exploring issues on recommending research papers to users, in order to directly lead users to papers of their interest. Recommender systems are used to recommend items to users among a huge stream of available items, according to users’ interests. This research focuses on the two most prevalent techniques to date, namely Content-Based Filtering and Collaborative Filtering. The first explores the text of the paper itself, recommending items similar in content to the ones the user has rated in the past. The second explores the citation web existing among papers. As these two techniques have complementary advantages, we explored hybrid approaches to recommending research papers. We created standalone and hybrid versions of algorithms and evaluated them through both offline experiments on a database of 102,295 papers, and an online experiment with 110 users. Our results show that the two techniques can be successfully combined to recommend papers. The coverage is also increased at the level of 100% in the hybrid algorithms. In addition, we found that different algorithms are more suitable for recommending different kinds of papers. Finally, we verified that users’ research experience influences the way users perceive recommendations. In parallel, we found that there are no significant differences in recommending papers for users from different countries. However, our results showed that users’ interacting with a research paper Recommender Systems are much happier when the interface is presented in the user’s native language, regardless the language that the papers are written. Therefore, an interface should be tailored to the user’s mother language.
Resumo:
In this thesis, we present a novel approach to combine both reuse and prediction of dynamic sequences of instructions called Reuse through Speculation on Traces (RST). Our technique allows the dynamic identification of instruction traces that are redundant or predictable, and the reuse (speculative or not) of these traces. RST addresses the issue, present on Dynamic Trace Memoization (DTM), of traces not being reused because some of their inputs are not ready for the reuse test. These traces were measured to be 69% of all reusable traces in previous studies. One of the main advantages of RST over just combining a value prediction technique with an unrelated reuse technique is that RST does not require extra tables to store the values to be predicted. Applying reuse and value prediction in unrelated mechanisms but at the same time may require a prohibitive amount of storage in tables. In RST, the values are already stored in the Trace Memoization Table, and there is no extra cost in reading them if compared with a non-speculative trace reuse technique. . The input context of each trace (the input values of all instructions in the trace) already stores the values for the reuse test, which may also be used for prediction. Our main contributions include: (i) a speculative trace reuse framework that can be adapted to different processor architectures; (ii) specification of the modifications in a superscalar, superpipelined processor in order to implement our mechanism; (iii) study of implementation issues related to this architecture; (iv) study of the performance limits of our technique; (v) a performance study of a realistic, constrained implementation of RST; and (vi) simulation tools that can be used in other studies which represent a superscalar, superpipelined processor in detail. In a constrained architecture with realistic confidence, our RST technique is able to achieve average speedups (harmonic means) of 1.29 over the baseline architecture without reuse and 1.09 over a non-speculative trace reuse technique (DTM).
Resumo:
O armazenamento de grandes quantidades de informações em bases de dados cria a necessidade de se usar Métodos de Acesso a esses dados de uma forma mais eficiente do que uma busca linear. Dessa forma, diversos Métodos de Acesso vêm sendo propostos há décadas. Desde os mais simples Métodos de Acesso como árvores B até os mais sofisticados Métodos de Acesso Métrico tem-se o mesmo objetivo: a eficiência na consulta. Para cada tipo de dados, para cada tipo de consulta, existe uma diferente forma de acesso mais adequada. Se os dados puderem ser ordenados, pode-se usar uma àrvore B. Na busca por pequenas cadeias de caracteres, pode-se utilizar uma árvore de sufixos. Com a evoluçãocomputacional, não se quer armazenar apenas números ou pequenas seqüências de texto. Já existem diversas bases de dados muito mais complexas, como seqüências de sons, imagens ou até mesmo vídeos armazenados. A complexidade desse tipo de dados e do tipo de consulta feita em cima deles gerou a necessidade de novos Métodos de Acesso. Os chamados Métodos de Acesso Métrico são estruturas capazes de acessar dados bastante complexos, como arquivos multimídia, com uma boa eficiência. Esse tipo de estrutura vem sendo estudada há muitos anos, mas a primeira delas realmente eficaz foi a árvore M. Depois dela, vários outros Métodos de Acesso Métricos surgiram, como a árvore Slim, M2, M+, DF, DBM aprimorando sua estrutura básica Esse trabalho propõe a árvore TM, que inova a forma como os dados são indexados, aprimorando a árvore M. Essa nova estrutura, usa o espaço métrico para a busca dos dados, o que é feito por todos Métodos de Acesso Métricos. Mas sua inovação está na forma como os dados são indexados, usando-se um espaço novo também proposto nesse trabalho, o espaço distorcido. Experimentos mostram uma melhora significativa na eficiência da consulta tanto em quantidade de acesso a disco quando em custo de processamento.
Resumo:
Este trabalho, de caráter exploratório, visou identificar o valor percebido pelos alunos de graduação de uma Instituição de Ensino Superior a respeito dos recursos de Tecnologia da Informação e de sua utilização voltada para as atividades acadêmicas. Para tal, foi utilizada a técnica de entrevistas em laddering. Vinte e cinco alunos de graduação foram entrevistados, através de uma das três seguintes modalidades: e-mail, telefone ou pessoalmente. Os resultados do trabalho incluem a construção do mapa hierárquico de valor e a identificação das dimensões de valor mais importantes. Foram identificados como importantes 4 atributos, 12 conseqüências de uso e 3 valores. Os atributos identificados como importantes são: “Bom acesso à Internet”, “Bom equipamento”, “Bom software” e “Capacidade de armazenamento”. As conseqüências de uso identificadas como importantes são: “Acesso a mais informações”, “Comunicação”, “Conseguir fazer os trabalhos”, “Facilidade de uso”, “Fazer trabalhos melhores”, “Ganhar tempo”, “Maior rapidez”, “Melhor desempenho acadêmico”, “Reutilização do material”, “Maior acesso ao mercado de trabalho”, “Mais tempo disponível” e “Poder trabalhar em qualquer horário”. Os valores identificados como importantes são: “Clareza e boa apresentação melhoram a avaliação”, “Meu tempo é importante” e “Ser competitivo no mercado de trabalho”. Como resultado do trabalho também pode ser apontado que a técnica de entrevistas em laddering mostrou-se adequada para o estudo em questão.
Resumo:
Este trabalho apresenta um modelo de metadados para descrever e recuperar imagens médicas na Web. As classes pertencentes ao modelo viabilizam a descrição de imagens de várias especialidades médicas, incluindo suas propriedades, seus componentes e as relações existentes entre elas. Uma das propriedades que o modelo incorpora é a classificação internacional de doenças, versão 10 (CID-10). O modelo de metadados proposto, inspirado em classes, favorece a especialização e sua implementação na arquitetura de metadados RDF. O modelo serviu de base para a implementação de um protótipo denominado de Sistema MedISeek (Medical Image Seek) que permite a usuários autorizados: descrever, armazenar e recuperar imagens na Web. Além disto, é sugerida uma estrutura persistente apropriada de banco de dados para armazenamento e recuperação dos metadados propostos.
Resumo:
Muitas abordagens para recuperação de informação (RI) assumem duas hipóteses: (i) cada termo de um documento é estatisticamente independente de todos os outros termos no texto, e (ii) métodos lingüísticos são de difícil aplicação nesta área. Contudo, há regularidades lingüísticas, produzidas pelas dependências entre termos, que precisam ser consideradas quando um texto é representado, e a representação de textos é crucial para aplicações que utilizam processamento da linguagem natural, como a RI. Um texto é mais do que uma simples seqüência de caracteres ou palavras. As palavras apresentam características morfológicas e relações de coesão que não podem ser esquecidas na descrição dos conceitos presentes no texto. Nesse sentido, um novo modelo com dependência de termos para a RI, denominado TR+, é proposto. Ele inclui: (i) nominalização, como processo de normalização lexical, e identificação de relações lexicais binárias (RLBs) e (ii) novas fórmulas para cálculo do peso das unidades de indexação (descritores). Essas fórmulas se baseiam no conceito de evidência, que leva em conta, além da freqüência de ocorrência, os mecanismos de coesão do texto. O modelo também inclui operadores Booleanos na consulta, para complementar a especificação da dependência de termos. Avaliações experimentais foram realizadas para demonstrar que (i) a nominalização apresenta melhores resultados em relação aos processos de normalização lexical usuais, (ii) a aquisição de informação lingüística, através de RLBs, e o uso de consultas Booleanas contribuem para a especificação de dependência de termos, e (iii) o cálculo da representatividade dos descritores baseado em evidência apresenta vantagens em relação ao cálculo baseado em freqüência de ocorrência. Os experimentos relatados indicam que esses recursos melhoram os resultados de sistemas de RI.
Resumo:
Este trabalho teve como objetivo estudar a manutenção da viabilidade das borbulhas de laranjeira ‘Valência’ e tangerineira ‘Montenegrina’, oriundas de ambiente protegido e pomar, sob diferentes processos de desinfestação e períodos de armazenamento em câmara fria, assim como avaliar o comportamento das substâncias de reserva contidas nos ramos porta-borbulhas nos diferentes períodos de armazenamento. Com estes objetivos foram conduzidos dois experimentos em câmara fria com temperatura em torno de 5ºC. No experimento 1, testou-se borbulhas de duas cultivares de citros oriundas de ambiente protegido, três tratamentos químicos (testemunha, 1x tratado com Captan e 2x tratado com Captan na dose de 10g/L) e três períodos de armazenamento (0, 90, e 180 dias), com quatro repetições. No experimento 2, testou-se borbulhas de duas cultivares de citros oriundas do pomar de citros, três tratamentos químicos (testemunha, 1x tratado com Captan e 2x tratado com Captan na dose de 10g/L) e cinco períodos de armazenamento (0, 45, 90, 135 e 180 dias), com quatro repetições. As borbulhas da cultivar Montenegrina, mantiveram-se viáveis por 90 dias sem tratamento com fungicida e por, no mínimo, 180 dias se submetidas a 1 tratamento com fungicida no momento de seu armazenamento. As borbulhas da cultivar Valência, coletadas de ambiente protegido, mantiveram-se viáveis por, no mínimo, 180 dias sem a necessidade de tratamento com fungicida. As substâncias de reserva dos ramos porta-borbulhas sofreram redução ao longo do armazenamento.
Resumo:
O presente trabalho constou de três estudos. No primeiro estudo, cinco ejaculados de 30 machos foram analisados conforme a manutenção da MOT a 17ºC, sendo classificados em três tipos: MOT <60% nas 72h (EI); MOT ≥60% nas 72h e <60% nas 144h (EII) e MOT ≥60% nas 144h (EIII). Doze machos foram selecionados e distribuídos em três grupos: MAIOR, MÉDIA e MENOR sensibilidade espermática ao resfriamento. Em seguida, foram coletados cinco ejaculados de cada macho, sendo a MOT avaliada a cada 24h, e a integridade da membrana espermática (IM) e de acrossomas normais (NAR) nas 24, 72, 120 e 168h. Machos menos sensíveis ao resfriamento apresentaram menor variação na MOT do período pré- para o pós-seleção. Diferenças entre os machos foram observadas desde as 24 até 168h para MOT, nas 120 e 168h para MI e nas 72 e 168h para NAR. A MOT foi mais afetada que MI e NAR durante o armazenamento do sêmen in vitro. No estudo 2 foi avaliada a possibilidade de reverter a sensibilidade espermática ao resfriamento pela troca de plasma seminal (PS) entre machos com diferente manutenção da MOT a 17ºC. Foram utilizados ejaculados de cinco cachaços selecionados e classificados como: menor (MES) e maior sensibilidade ao resfriamento (MAS). Foram utilizados seis tratamentos, com cinco repetições cada. Nos tratamentos T1 e T3, o sêmen dos machos MES e MAS, respectivamente, foram processados de acordo com o protocolo convencional. Foi efetuada centrifugação (800g por 10 min) e adição do PS (10mL) homólogo para os espermatozóides MES e MAS, respectivamente, nos T2 e T4. Após a centrifugação, foi realizada a troca do PS, sendo que espermatozóides dos machos MES foram expostos ao PS dos machos MAS (T5) e o PS dos machos MES foi adicionado aos espermatozóides dos machos MAS (T6). A MOT foi avaliada a cada 24h, durante sete dias de conservação. NAR e de IM foram avaliados nas 24, 72, 120 e 168h. Diferenças na MOT, entre os machos MES (T1) e MAS (T3), foram observadas após armazenamento de 48h. Não foram observadas alterações em MOT e IM, quando foi efetuada a troca de PS entre os machos MES e MAS. Não foi possível reverter a maior sensibilidade ao resfriamento de espermatozóides suínos, após a ejaculação, com a adição de 10% do PS de machos com sêmen de menor sensibilidade. No terceiro estudo, foi avaliada a fertilidade de sêmen suíno pelo teste de ligação de espermatozóides a um substrato sintético. A MOT e o percentual de espermatozóides ligados (PEL) foram avaliados nas 5, 24, 48 e 72 horas de armazenamento a 17ºC. O PEL foi determinado em soluções contendo 6,25 ou 12,5 milhões de espermatozóides/mL, com ou sem albumina sérica bovina (BSA), preparadas a partir de dois a cinco ejaculados de cada um dos quatro machos. Houve correlação positiva (r=0,33) entre a MOT e o PEL. Os machos diferem quanto à capacidade de ligação de seus espermatozóides ao substrato sintético, a partir de 24 horas de armazenamento do sêmen. Maior percentual de espermatozóides ligados ao substrato sintético é verificado com a inclusão de BSA e com o aumento da concentração espermática.
Resumo:
Na inseminação artificial de suínos, são utilizados de 9 a 12 bilhões de espermatozóides por fêmea inseminada. A utilização de menor número de espermatozóides, sem interferir na performance reprodutiva das fêmeas, poderia otimizar o uso dos machos e reduzir os custos de inseminação. Esta tese foi dividida em três experimentos para avaliar o efeito da redução do número de espermatozóides por fêmea inseminada com a técnica tradicional ou intra-uterina. No experimento 1 foram utilizadas 218 leitoas Camborough 22 inseminadas em três intervalos antes da ovulação (0-12, 13-23 e 24-30 h), com doses inseminantes contendo 1,5 bilhão de espermatozóides e armazenadas por 0-48 h ou 96-120 h. As leitoas receberam uma única inseminação. As fêmeas foram abatidas aos 30,83,7 dias de gestação e o trato genital foi removido para contagem do número de corpos lúteos e embriões totais. A taxa de prenhez foi influenciada pelo intervalo inseminação-ovulação quando o sêmen foi armazenado por 96-120 h (P<0,05). Da mesma forma, a interação tempo de armazenamento do sêmen e o intervalo inseminação-ovulação afetou (P<0,05) o número de embriões totais e a sobrevivência embrionária. Quando o período de armazenamento do sêmen foi de 120 h e o intervalo inseminação-ovulação de 24-30 h, foi observada redução no número de embriões totais e na sobrevivência embrionária. No experimento 2 foi avaliado o efeito do intervalo inseminação-ovulação e do número de espermatozóides na dose inseminante em fêmeas submetidas à inseminação intra-uterina. Foram utilizadas 66 matrizes pluríparas da linhagem Camborough 22. As fêmeas foram distribuídas em quatro tratamentos (doses de 1 ou 2 bilhões de espermatozóides diluídos em 60 ml e intervalo inseminação-ovulação de 0-24 e 25-36 h). As fêmeas receberam uma única inseminação intra-uterina. No momento da inseminação, não foi observado refluxo de sêmen. A passagem do cateter pela cérvix foi possível em todas as fêmeas. Foi observada presença de sangue em 1,7% das fêmeas. Aos 314,3 dias de gestação, as fêmeas foram abatidas e o trato genital foi removido para a contagem dos corpos lúteos e número de embriões totais. A taxa de prenhez e a sobrevivência embrionária não foram afetadas pelo número de espermatozóides ou pelo intervalo inseminação-ovulação. O número de embriões totais não foi influenciado pelo número de espermatozóides, mas foi reduzido para o intervalo inseminação-ovulação de 25-36 h comparado a 0-24 h (P<0,05). No experimento 3 foram utilizadas 298 fêmeas Camborough 22 com o objetivo de comparar o desempenho reprodutivo de fêmeas submetidas à inseminação intra-uterina e a tradicional. As fêmeas foram distribuídas em dois tratamentos: T1 – inseminação intra-uterina com doses inseminantes contendo 0,5 bilhão de espermatozóides em um volume total de 20 ml; T2 - inseminação tradicional com doses inseminantes contendo 3,0 bilhões de espermatozóides em um volume total de 90 ml. As fêmeas receberam múltiplas inseminações. Foi possível a realização da inseminação intra-uterina em 98,1% das fêmeas. A presença de sangue, na extremidade do cateter ou espiral da pipeta de inseminação intra-uterina, foi observada em 8,4 % das fêmeas. As taxas de prenhez e de parto ajustada não diferiram entre os tratamentos. No entanto, o tamanho da leitegada foi menor (P<0,05) na IAU quando comparado à tradicional. Na inseminação artificial tradicional, em leitoas, é possível utilizar 1,5 bilhão de espermatozóides sem que as taxas de prenhez, número de embriões totais e sobrevivência embrionária sejam comprometidas. Para a inseminação intra-uterina, a utilização de 1 bilhão de espermatozóides não compromete o desempenho reprodutivo.
Resumo:
O objetivo deste trabalho foi o de analisar o movimento da água no perfil de solos hidromórficos, do tipo glei, com camada de impedimento, quando irrigados por sulcos. Esses solos têm vocação para o cultivo do arroz irrigado por inundação, sendo considerados marginais para outros cultivos. A monocultura, decorrente dessas características, traz consigo o surgimento de limitações ao cultivo, destacando-se entre elas o surgimento de invasoras como arroz vermelho e preto, (Oryza sativa L.) que, por serem da mesma espécie da planta cultivada, não podem ser erradicadas por meio de controle químico com aplicação de herbicidas. A introdução de cultivos alternativos ao de arroz é limitada, entre outros fatores, pela pequena capacidade de armazenamento de água desses solos, o que torna a irrigação prática imprescindível nesses casos. A pequena profundidade da camada impermeável, entretanto, constitui um impedimento à penetração tanto do sistema radicular como da água. Considerando que, neste método a profundidade de umedecimento não é a mesma, em conseqüência de o tempo de permanência da lâmina sobre a superfície também não ser o mesmo, para que a profundidade mínima de irrigação seja igual à profundidade do sistema radicular, haverá sempre um excesso que irá percolar além dessa profundidade. Como a profundidade destes solos está em torno de 0,40m, o excesso de água ao ter sua percolação impedida, tende a saturar o perfil de maneira ascendente, a partir da camada de impedimento. Buscando uma contribuição para a solução da problemática, procurou-se acompanhar o movimento da água de irrigação no perfil desse tipo de solo, quando irrigado pelo método de sulcos. Para tal, foi implantado um cultivo de sorgo granífero (Sorghun bicolor L.), irrigado por sulcos retilíneos com 200m de comprimento e espaçamento de 0,95m. O movimento da água no interior do solo foi monitorado por meio das variações de umidade, com a utilização da prática da reflectometria no domínio do tempo (TDR). As variações do conteúdo de água do solo, durante e após 24 horas cessada a irrigação, indicaram que a distribuição da água no perfil do solo foi bastante boa, não restando pontos com deficiência de umidade e não alcançando, a saturação, uma altura muito significativa, que pudesse comprometer o desenvolvimento de cultivos mesofíticos. A eficiência de aplicação calculada foi de 84%, considerada muito alta para esse método de irrigação. Foi aplicado, utilizando-se os dados do experimento, um modelo de simulação de irrigação superficial, desenvolvido pelo U. S. Water Conervation Laboratory, do U. S. Department of Agriculture, Simulation Irrigation Model SRFR. A simulação realizada pelo modelo não representou o movimento da água no solo, da mesma forma como este foi observado no campo.
Resumo:
A tendência atual de desenvolvimento de novos equipamentos geotécnicos combina diferentes técnicas, aliando a robustez do ensaio de cone às informações adicionais de outros ensaios. O cone sísmico constitui-se em exemplo típico adotado internacionalmente. Geofones ou acelerômetros podem ser incorporados ao fuste do cone para medida de velocidade de propagação de ondas de compressão e cisalhamento. O cone possibilita uma estimativa da resistência ao cisalhamento de materiais geotécnicos, enquanto as medias sísmicas permitem medir o módulo cisalhante a pequenas deformações. A combinação de valores de resistência e deformabilidade, expressa através da razão entre Go/qc, pode representar uma alternativa importante na caracterização de solos. Nesta dissertação o cone sísmico foi projetado, construído, calibrado e testado no depósito argiloso do Aeroporto Internacional Salgado Filho em Porto Alegre. O equipamento é composto de um módulo onde são acondicionados dois sensores (geofones), distantes de 1,0 m, para a captação das ondas de cisalhamento. Os sinais são captados e enviados para um pré-amplificador com filtro, acondicionado no módulo sísmico, sendo posteriormente conduzidos para um segundo amplificador cuja taxa de amplificação pode ser regulada. O sinal adquirido é armazenado em um computador para análise posterior O ensaio de cone sísmico consiste basicamente na geração de uma onda de cisalhamento na superfície do solo e seu armazenamento com o sistema de aquisição de sinais. A determinação do módulo de cisalhamento é feita através da teoria da elasticidade, medindo-se os tempos de chegada da onda de cisalhamento em cada geofone e calculando-se a velocidade de percurso da onda entre os dois sensores. O trabalho contempla o desenvolvimento do cone sísmico, montagem, calibração e aplicação na Área do Aeroporto Internacional Salgado Filho. Os resultados obtidos são comparados a resultados de ensaios de cross-hole existentes no referido local.
Resumo:
Após o surgimento e a expansão exponencial, a internet evoluiu para uma tecnologia que extrapolou os contornos acadêmicos em que foi criada, desenvolvendo diversas e simultâneas vocações, entre elas, fonte de educação e lazer, armazenamento de informações, rede de computadores, meio de comunicação individual e veículo de mídia de massa. É esta vocação, de veículo de mídia, que provocou o interesse pela pesquisa objeto desta dissertação. A entrada da internet no ambiente de mídia tem renovado o interesse na questão do consumo de mídia. Particularmente, a crescente popularidade como novo meio de comunicação resultou em mudanças nos usos dos meios tradicionais, como teorizado na Teoria do Nicho aplicada à indústria de mídia. O declínio da audiência das grandes redes de TV aberta mostra como o setor vem reagindo à concorrência de novos canais, à emergência de novas plataformas de acesso à programação televisiva e à mudança nos hábitos de consumo de mídia. Esta investigação faz uma revisão da literatura e compara o panorama internacional e especialmente a situação do Brasil, onde as principais emissoras de sinal aberto tentam resistir ao processo de fragmentação do público que se registra mundialmente. Para melhor compreender o que significam tais mudanças, é primordial entender quais as variáveis relevantes no universo dos veículos de mídia. A principal delas é a audiência, que representa o número de pessoas que acessam, veem, leem, ouvem ou consomem determinado meio de comunicação em determinado espaço de tempo. O objetivo deste estudo foi desenvolver um modelo preditivo sobre o tempo despendido pelas pessoas na internet, a partir de informações sociodemográficas e do comportamento dessas pessoas enquanto audiência dos meios de comunicação tradicionais, particularmente a televisão. Como os dados secundários analisados apresentam respostas em categorias ordinais, foi escolhido a regressão logística ordinal como o modelo de probabilidades para realizar esse estudo.