907 resultados para Suco de laranja - Processamento do FCOJ
Resumo:
A partir das teorias da Linguística Textual e da Análise do Discurso, este trabalho tem por objeto de estudo o processo de produção e recepção do anúncio publicitário impresso, investigando especificamente a intertextualidade e a interdiscursividade como forma de associação de informações que se encontram no repertório cultural da sociedade. Analisa, portanto, os efeitos de tais textos no interlocutor, que é seduzido pela mensagem que lhe é exposta, considerando que a linguagem publicitária está impregnada de discursos sócio-históricos e valores ideológicos que refletem o cotidiano das pessoas, sendo comum a aparição de anúncios que se destacam diante do leitor / consumidor por revelarem situações vividas por ele ou que se identifiquem com seus anseios mais íntimos. Com a análise de um corpus formado por 10 (dez) anúncios, retirados de revistas de grande circulação nacional, que mobilizam uma série de estratégias criativas para o seu processamento, assim como o conhecimento de mundo do leitor, buscou-se evidenciar de que modo o intertexto e o interdiscurso constroem o sentido das peças publicitárias, construindo textos persuasivos e sedutores. Com isso, o presente estudo se volta para uma reflexão da língua, podendo ser utilizado com finalidade didática, para que o olhar do aluno / leitor seja aguçado para as estratégias persuasivas propositadamente presentes nesse gênero textual. Assim, o sujeito-receptor de anúncios publicitários se instrumentaliza para a leitura, em sentido amplo, e se torna capaz de perceber todo o jogo arquitetado por uma linguagem híbrida
Resumo:
Esse trabalho compreende dois diferentes estudos de caso: o primeiro foi a respeito de um medicamento para o qual foi desenvolvida uma metodologia para determinar norfloxacino (NOR) por espectrofluorimetria molecular e validação por HPLC. Primeiramente foi desenvolvida uma metodologia por espectrofluorimetria onde foram feitos alguns testes preliminares a fim de estabelecer qual valor de pH iria fornecer a maior intensidade de emissão. Após fixar o pH foi feita a determinação de NOR em padrões aquosos e soluções do medicamento usando calibração univariada. A faixa de concentração trabalhada foi de 0500 μg.L-1. O limite de detecção para o medicamento foi de 6,9 μg.L-1 enquanto que o de quantificação foi de 24,6 μg.L-1. Além dessas, outras figuras de mérito também foram estimadas para desenvolvimento da metodologia e obtiveram resultados muito satisfatórios, como por exemplo, os testes de recuperação no qual a recuperação do analito foi de 99.5 a 103.8%. Para identificação e quantificação do NOR da urina foi necessário diluir a amostra de urina (estudada em dois diferentes níveis de diluição: 500 e 1000 x) e também uso do método da adição de padrão (na mesma faixa de concentração usada para medicamento). Após a aquisição do espectro, todos foram usados para construção do tensor que seria usado no PARAFAC. Foi possível estimar as figuras de mérito como limite de detecção de 11.4 μg.L-1 and 8.4 μg.L-1 (diluição de 500 e 1000 x respectivamente) e limite de quantificação de 34 μg.L-1 e 25.6 μg.L-1 (diluição de 500 x e 1000 x respectivamente). O segundo estudo de caso foi na área alimentícia no qual se usou espectroscopia NIR e FT MIR acopladas a quimiometria para discriminar óleo de soja transgênica e não transgênica. Os espectros dos óleos não mostraram diferença significativa em termos visuais, sendo necessário usar ferramentas quimiométricas capazes de fazer essa distinção. Tanto para espectroscopia NIR quanto FT MIR foi feito o PCA a fim de identificar amostras discrepantes e que influenciariam o modelo de forma negativa. Após efetuar o PCA, foram usadas três diferentes técnicas para discriminar os óleos: SIMCA, SVM-DA e PLS-DA, sendo que para cada técnica foram usados também diferentes pré processamento. No NIR, apenas para um pré processamento se obteve resultados satisfatórios nas três técnicas, enquanto que para FT-MIR ao se usar PLS-DA se obteve 100% de acerto na classificação para todos os pré processamentos
Resumo:
O câncer de mama constitui-se no câncer mais frequente na população feminina mundial e brasileira. A quimioterapia antineoplásica encontra-se entre as formas de tratamento mais temidas pela mulher à medida que experimenta efeitos colaterais agressivos. O estudo tem como objetivos: identificar as repercussões corporais decorrentes do tratamento quimioterápico que são reconhecidas pelas mulheres; descrever os mecanismos de enfrentamento que a mulher com câncer de mama utiliza para lidar com essas repercussões; Analisar as repercussões corporais vivenciadas pelas mulheres com câncer de mama à luz da Teoria de Sister Callista Roy; apontar as ações de enfermagem reconhecidas pelas mulheres com câncer de mama relacionadas com a vivência das repercussões corporais. Trata-se de uma pesquisa de campo, de abordagem qualitativa. O estudo teve como cenário a Seção de Oncologia do Hospital Universitário Pedro Ernesto. Os sujeitos da pesquisa foram mulheres com câncer de mama com idade superior a 18 anos em tratamento na instituição. Foram observados os princípios da Resolução 196/96 do Conselho Nacional de Saúde. A coleta de dados se deu através de entrevista individual do tipo semiestruturada. O processamento e análise dos dados foram compostos pela transcrição e leitura das entrevistas, e alvo de reflexão à luz do referencial de análise de conteúdo de Bardin e Modelo Adaptativo de Roy. Foram identificadas as seguintes categorias: 1) alterações corporais decorrentes da doença e o tratamento, com as subcategorias: compreensão da mulher acerca da doença e tratamento, Sentimentos relacionados ao diagnóstico de câncer e os efeitos colaterais do tratamento; 2) enfrentando o câncer de mama e seu tratamento; 3) a meta da enfermagem: promoção da adaptação da mulher com câncer de mama. Os resultados demonstraram uma relação próxima entre os achados e a Teoria de Sister Callista Roy.
Resumo:
O trabalho expõe a consolidação do direito à verdade pelo Direito Internacional e a complementaridade entre as comissões da verdade e os tribunais, mecanismos de justiça de transição, como a combinação que melhor lhe confere aplicabilidade. Primeiramente, a tese reivindica que a transição e a consolidação democrática devem se dar por meio da prestação de contas com o passado, o que se torna possível na medida em que se promoveram a partir da 2a Guerra Mundial significativas alterações no Direito Internacional, que se afasta do paradigma vesfaliano de soberania. Aborda-se assim o excepcional desenvolvimento do Direito Internacional dos Direitos Humanos, do Direito Internacional Humanitário e do Direito Penal Internacional, centralizados na ideia de responsabilidade. A tese também abrange o desenvolvimento do direito à verdade no seio da Organização das Nações Unidas e dos sistemas regionais de proteção de direitos humanos, tendo alcançado o status de norma imperativa ou peremptória, sendo explorados os obstáculos ao seu exercício como no caso de anistias e outras medidas similiares como a prescrição, a justiça militar e a coisa julgada. Enfrentam-se, ainda, as potencialidades e limites da verdade que resulta de comissões da verdade e dos tribunais, concebida esta como conhecimento sobre os fatos e o reconhecimento da responsabilidade pelo ocorrido. O trabalho aborda temas como a independência e imparcialidade das comissões de verdade, seus poderes e o alcance de suas conclusões e recomendações. Por sua vez, com vistas a identificar as verdades a serem alcançadas pelos tribunais, privilegia-se o processo criminal, por se entender que a sentença penal pressupõe o exercício mais completo do devido processo. A imperatividade do direito à verdade é também demonstrada pela defesa da participação da vítima no processo criminal e da admissão de culpa por parte do acusado -- ambos consagrados pelo Tratado de Roma. Por fim, a tese analisa alguns cenários para a complementaridade entre estes dois mecanismos de justiça de transição, fazendo o estudo dos casos do Chile, Peru, Serra Leoa e Quênia, casos estes permeados pelo Direito Internacional, seja pela influência da jurisdição universal ou pelo impacto da jurisdição internacional. O caso brasileiro, por certo, não se ajusta a nenhum destes cenários. Sua caracterização como um diálogo em aberto, para efeitos deste trabalho, pressupõe que o Brasil encontra-se em um importante momento de decisão sobre a complementaridade entre comissões da verdade e tribunais - a recente aprovação da Comissão Nacional da Verdade deve conviver com o aparente conflito entre a decisão do Supremo Tribunal Federal, que afirmou a constitucionalidade da Lei de Anistia de 1979, e a decisão da Corte Interamericana no caso Araguaia, que entende nulos os dispositivos da lei que obstaculizam o processamento dos responsáveis, ambas no ano de 2010 - com a oportunidade de demonstrar que a passagem do tempo não arrefece as obrigações a que se comprometeu no cenário internacional.
Resumo:
O perfeito entendimento de deslizamentos de terra tem sido objeto de grande interesse na engenharia geotécnica há muitos anos. Encostas naturais representam um desafio constante para os engenheiros, mais do que os taludes artificiais. Não é incomum que os escorregamentos causam perdas de vidas humanas e também danos materiais. As informações obtidas a partir de retro-análise de casos históricos, têm servido como uma ferramenta valiosa para a compreensão da estabilidade de taludes. Vale a pena notar que o primeiro método de cálculo de estabilidade de taludes, usando divisão de fatia, foi desenvolvido após um acidente na Noruega. Métodos de estabilidade por Equilíbrio Limite, desenvolvidos no século passado são atualmente utilizados na prática da engenharia. Apesar de suas deficiências, eles provaram ser confiáveis na determinação do Fator de Segurança. A geometria 2D e a abordagem completa da condição saturada são provavelmente as questões mais relevantes dos métodos atuais. A condição do solo não saturado está geralmente presente em taludes naturais e os métodos ignoram a influência da sucção do solo sobre a estabilidade do talude. O desenvolvimento de computadores no meio do século passado, tornaram os cálculos Equilíbrio Limite fáceis de serem executados. Por outro lado, eles não podem explicar a natureza do problema ou prever o comportamento do solo antes da ruptura. A década de 1960 marcou o início do desenvolvimento de programas de computador baseados em métodos numéricos que, entre outros, destaca-se, em geotecnia, a aplicação dos métodos de Elementos Finitos (FEM). Este método é ideal para muitos fins, uma vez que permite a simulação da sequência de construção e também a incorporação de diferentes modelos constitutivos. Este trabalho mostra a influência da sucção sobre a estabilidade de encostas naturais. Uma retroanálise de um escorregamento no Morro dos Cabritos, no Rio de Janeiro, foi feita através de um programa de análise de tensão (Plaxis 2D). Os resultados foram comparados com o FS obtido por programa de Equilíbrio Limite (Slide v5). O efeito de sucção do solo foi incorporada nas análises, através de sua influência sobre os parâmetros de resistência do solo e por diferentes possibilidades de infiltração de água na encosta. Este caso histórico foi estudado anteriormente por Gerscovich (1994), que na época, fez analise de fluxo e estabilidade utilizando um abordagem de Equilíbrio Limite 3D. Os resultados mostraram boa concordância entre a análise de Elementos Finitos e a simulação de Equilíbrio Limite, sem a presença de nível de água. Os resultados confirmaram que foi necessário haver pressões positivas para explicar a ruptura do talude.
Resumo:
A presente pesquisa tem como objetivo geral analisar as representações sociais da hierarquia construídas pelos militares da FAB, considerando suas segmentações em termos dos círculos de oficiais e graduados, dos respectivos processos de formação, dos sexos de seus componentes e dos estágios, se formados ou em formação, em que se encontram. A fundamentação teórica discorre sobre a hierarquia, princípio geral das instituições militares, previsto por lei e regulador do comportamento militar, conforme prevê o Estatuto dos Militares (BRASIL, 1980); a respeito do poder, na perspectiva de Max Weber (1999) que trata a obediência, a partir da autoridade de uma pessoa sobre outras, e de acordo com Amitai Etzioni (1974), que entende o poder como a capacidade que uma pessoa tem de induzir outra a seguir suas orientações. Apresenta ainda a Teoria das Representações Sociais, proposta por Serge Moscovici (1961), para quem as representações sociais servem de instrumento de leitura da realidade, e a partir da abordagem estrutural, proposta por Jean-Claude Abric (1976), segundo a qual a representação social é composta pelo sistema central, constituído pelo núcleo central, e pelo sistema periférico, formado por elementos periféricos. A amostra foi composta por 600 militares, oriundos das escolas de formação de oficiais e de graduados, do âmbito do Comando da Aeronáutica (COMAER): Academia da Força Aérea (AFA), cuja finalidade é a formação dos Oficiais da Ativa dos quadros de Aviação, de Intendência e de Infantaria, a Escola de Especialistas da Aeronáutica (EEAR), responsável pela formação e pelo aperfeiçoamento dos graduados e o Centro de Instrução Especializada da Aeronáutica (CIEAR), responsável pela capacitação de oficiais e graduados em áreas afins à sua especialização. A coleta de dados foi realizada por meio da técnica de evocação livre ao termo indutor hierarquia, da aplicação do questionário de caracterização e do questionário geral, composto por questões abertas e fechadas. As evocações foram processadas pelo software EVOC, desenvolvido por Pierre Vergès (2005), as questões fechadas receberam o processamento com o auxílio do software SPSS e as questões abertas sofreram uma categorização para o refinamento das análises. Os resultados encontrados nas comparações do conteúdo temático e da estrutura das representações sociais entre os diferentes segmentos permitem afirmar que os temas respeito e disciplina são os prováveis elementos centrais da hierarquia para o conjunto dos 600 militares pesquisados e caracterizam a base comum e consensual compartilhada na caserna. A hierarquia, norteada por um conjunto de regras que regula e assegura a disciplina e o respeito, direciona o comportamento dos militares, durante a formação e no decorrer da carreira. Da análise, conclui-se que os diferentes segmentos de militares da FAB possuem a mesma representação social de hierarquia.
Resumo:
Pesquisas sobre a situação de leitura dos nossos alunos apontam que a maioria não tem proficiência leitora. O problema ganha amplitude quando resultados de avaliações externas elaboradas pelo governo federal são divulgados, dentre eles os da Prova Brasil. Essas avaliações da Educação Básica têm provocado muitas discussões em vários níveis, visto que promovem um retorno de ordem quantitativa, porque controlam o percentual de acertos das questões. Um destes níveis é o organizacional, já que tais avaliações apontam para os possíveis problemas do fazer pedagógico. Esse quadro aliado aos resultados insatisfatórios do município de Duque de Caxias na Prova Brasil motivou a elaboração do Projeto Con-seguir e da Prova Caxias, com o intuito de diagnosticar tais problemas. Este estudo debruça-se sobre a compreensão leitora, tratando especificamente da compreensão leitora dos alunos da rede municipal de educação da Prefeitura de Duque de Caxias em questões que possuem tiras em quadrinhos. Analisamos as questões com tiras na Prova Caxias à luz da Linguística Cognitiva assim como o desempenho dos alunos da rede nessas questões. De caráter eminentemente qualitativo, a análise tem como unidades de análise os conceitos de mescla e de modelos cognitivos idealizados, acompanhada por parâmetros quantitativos relacionados ao desempenho dos alunos na Prova Caxias. Além da análise de questões e quantificação dos resultados da prova em tela, recorremos também à aplicação de questionário investigativo a sete professores da rede, todos da educação básica do município. O propósito foi analisar suas práticas pedagógicas no ensino-aprendizagem de leitura, tratando especificamente do gênero história em quadrinhos. Suas respostas foram analisadas por meio do conceito de categorização por prototipicidade. A análise realizada revela que os principais problemas na compreensão leitora advêm do processamento metafórico (LAKOFF ; JOHNSON, 2002) e da construção de mesclas (FAUCONNIER ; TURNER, 2002) exigidos por esse gênero. Dentre as contribuições do estudo, destacamos o conhecimento construído sobre o processo de construção de sentido em questões de histórias em quadrinhos pelos alunos de Duque de Caxias e a análise crítica sobre das práticas de leitura no ambiente escolar deste mesmo contexto
Resumo:
O aço inoxidável hiperduplex, SAF 2707 HD, foi desenvolvido com o intuito de se obter novas ligas com maior resistência à corrosão do que a disponível nos aços inoxidáveis duplex / superduplex. Além da melhorada resistência à corrosão, este tb oferece propriedades mecânicas superiores. Os aços hiperduplex são aços de última geração que possuem elevados teores de elementos de liga, principalmente cromo, molibdênio e nitrogênio. Este tipo de aço caracteriza-se por apresentar estrutura bifásica, constituída de proporções praticamente iguais de ferrita e austenita devido à distribuição controlada dos elementos alfagênicos e gamagênicos. O interesse por esses aços cresce gradativamente com a necessidade de novos materiais para diversas aplicações na indústria petrolífera. Porém, quando expostos e mantidos a temperaturas elevadas, na faixa entre 600C e 1000C, algumas fases intermetálicas podem se formar, em que a fase sigma () é a mais proeminente. Possui uma estrutura cristalina tetragonal complexa rica em Cr e Mo, tendo efeito deletério no material afetando tanto a resistência à corrosão, quanto as propriedades mecânicas. Para este fim, faz-se necessário estudos da junta soldada para delinear as limitações desses aços e aperfeiçoar a aplicação. Essa pesquisa teve como objetivo caracterizar a junta soldada por TIG autógeno manual com arco pulsado e não pulsado do aço inoxidável hiperduplex SAF 2707 HD. As técnicas empregadas foram a metalografia por ataque eletrolítico (reagente NaOH) e color etching (reagente Behara), medidas de microdureza e quantificação microestrutural por Processamento Digital de Imagem. Os aspectos microestruturais foram observados por microscopia óptica (MO) e microscopia eletrônica de varredura (MEV), estes passaram por etapas de processamento digital de imagens (PDI) para quantificar a fração volumétrica da fase austenita. Realizou-se análise química semi-quatitativa por EDS. Os resultados foram analisados estatisticamente através do teste de hipóteses com distribuição t de Student. Pela técnica color etching observou-se que a fase austenita foi gerada com distribuição mais homogênea para o arco pulsado, que o não pulsado. O ataque eletrolítico não revelou uma terceira fase (fase ) na junta soldada, a análise química por EDS não identificou uma variação significativa nos elementos presentes ao longo da zona de transição do metal de base para a zona de fusão. Através do PDI foram obtidos os valores médios da fração volumétrica de austenita de 36,38% (desvio padrão 6,40%) e 32,41% (desvio padrão 6,67%) para os dois métodos, pulsado e não pulsado, respectivamente. Foram obtidos os valores de microdureza para o metal de base 355,10 HV (desvio padrão 28,60) e para a zona de fusão 343,60 HV (desvio padrão 20,51) da amostra soldada pelo modo pulsado, para o modo não pulsado foram apresentaram os valores médios de 370,30 HV (desvio padrão 34,51) para o metal de base e de 345,20 HV (desvio padrão 41,33) para a zona de fusão. A análise estatística indicou que não houve variação significativa da fração volumétrica da fase austenita no cordão de solda para as duas condições testadas e não houve variação da microdureza entre a zona de fusão e o metal de solda das amostras submetidas aos dois processos.
Resumo:
A anecencefalia é o Defeito do Tubo Neural (DTN) mais severo em fetos humanos. Há uma demanda crescente para reposição tissular em doenças crônicas e cirurgias reconstrutoras. Tecidos fetais têm sido utilizados como substitutos para órgãos sólidos. Comparar a estrutura e morfologia do corpo cavernoso e corpo esponjoso de pênis de fetos humanos anencéfalos e de controle a fim de propor um novo modelo para estudos biológicos e transplantes teciduais. Foram estudados 11 pênis de fetos de controle de 14 a 23 Semanas Pós Concepção (SPC), e cinco pênis de fetos anencéfalos de 18 a 22 SPC. Os órgãos foram removidos e processados pelas técnicas histo e imunohistoquímicas rotineiras. A análise do tecido conjuntivo, células musculares lisas e fibras elásticas foram realizadas em lâminas dos espécimes. Os dados foram expressos em Densidade de àrea (Da) utilizando-se um software de processamento digital. As médias foram comparadas utilizando-se o Teste - T não pareado e quando aplicável, a regressão linear simples foi utilizada. Foi considerada significância estatística se p<0,05. O septo intercavernoso encontrava-se presente em todas as amostras. Não foram observadas diferenças da Da do tecido colágeno e musculatura lisa dos pênis de fetos anencéfalos quando comparados aos normais. A regressão linear simples sugere que durante o desenvolvimento humano há um aumen2to gradual do tecido colágeno (R2=0,45) e uma diminuição da musculatura lisa (R =0,62) no corpo cavernoso de ambos os grupos. A elastina encontrava-se presente apenas em fetos a partir da 20 SPC. Não houve diferença na estrutura da genitália entre fetos normais e enencéfalos. Apresença da elastina em fetos a partir da 20 SPC é um dado objetivo da manutenção da capacidade de ereção nestes grupos. A histo e imunohistoquímica sugerem que o desenvolvimento do pênis destes fetos encontra-se inalterado. Futuros estudos deverão ser realizados com o objetivo de avaliar fetos anencéfalos como um potencial grupo de doadores teciduais e um adequado modelo para estudos biológicos.
Resumo:
Nas gramáticas tradicionais da língua portuguesa, o estudo sobre a antonomásia, figura de linguagem que designa o processo de passagem de um nome próprio a um nome comum e vice-versa, é visto ora ligado ao conceito de metáfora, ora ligado à relação parte- todo, isto é, à metonímia. Na maioria das vezes, os exemplos mostrados nessas abordagens tradicionais estão descontextualizados, ou seja, não são retirados de um emprego discursivo- dialógico da língua. O principal objetivo desta tese é fazer uma reflexão sobre o potencial semiótico- funcional e cognitivo dos nomes próprios nas antonomásias discursivas, ou seja, aquelas que ainda não estão dicionarizadas, porque são temporárias, e, consequentemente, sua interpretação pertence ao âmbito do processamento discursivo. Tendo como base teórica a teoria dos Espaços Mentais em seu segundo momento, reconhecida como teoria da Integração Conceptual (FAUCONNIER; TURNER, 2002), e a teoria da Iconicidade Verbal, desenvolvida por Simões (2009), baseada nos estudos semióticos de Charles Sanders Peirce, analisar-se-ão, nesta tese, os seguintes aspectos do nome próprio nas antonomásias discursivas: a forma do nome próprio, ou seja, sua plasticidade, que é a característica central da iconicidade diagramática, e a iconicidade isotópica, que age como uma espécie de condutor temático para a formação de sentido de um texto. Esses dois tipos de iconicidade se inserem numa rede mais ampla de signos denominada iconicidade verbal, ou lexical (SIMÕES, 2004), que abrange efeitos tanto de ordem discursiva (discursivização) como de ordem estilística. Assim, ao se conceber o estudo das antonomásias discursivas do nome próprio em uma perspectiva semiótico- discursiva e cognitiva, ter-se-á dado mais um passo nos estudos dos itens lexicais que atuam como organizadores de sentido de um texto
Resumo:
Essa pesquisa teve como objetivo analisar a aplicabilidade de uma metodologia de investigação das disfunções existentes no conjunto de dados eleitorais de uma eleição para cargo majoritário no Brasil. O desenvolvimento e a rápida expansão da teoria descoberta por Newcomb-Benford, conhecida como Lei de Benford, bastante difundida por Mark J. Nigrini, Ph.D. no meio contábil, com a utilização de testes estatísticos, despertou o interesse por esta pesquisa. Vislumbrou-se a possibilidade de reduzir o risco de fraude eleitoral através da utilização da análise digital. Entretanto, é necessário adotar procedimentos mais acurados para que possíveis erros de aplicação do método analisado não acabem inviabilizando os efeitos benéficos trazidos pelo mesmo. A probabilidade de ocorrência do erro tipo I alarme falso pode levar ao aumento de custo na análise dos dados. Um dos maiores problemas encontrados em auditorias, contábeis ou não, diz respeito à falha na obtenção de evidências. No Brasil, a partir da utilização de sistema de processamento eletrônico de votação, houve um aumento da preocupação com a fraude, visto que não existe ainda um procedimento que permita verificar, por trilha de auditoria, a confiabilidade dos dados eleitorais. Para atingir o objetivo da pesquisa, foi realizada a aplicação do método estudado em um conjunto de dados relativos à eleição para cargo majoritário Presidente da República do Brasil - no ano de 2010, e a posterior análise dos resultados obtidos. Então, a partir dos resultados obtidos, pode-se sugerir a aplicabilidade da Lei de Benford, em especial o teste do 2 dígito, para a detecção de manipulação ou fraude no conjunto de dados eleitorais.
Resumo:
Este trabalho que envolve matemática aplicada e processamento paralelo: seu objetivo é avaliar uma estratégia de implementação em paralelo para algoritmos de diferenças finitas que aproximam a solução de equações diferenciais de evolução. A alternativa proposta é a substituição dos produtos matriz-vetor efetuados sequencialmente por multiplicações matriz-matriz aceleradas pelo método de Strassen em paralelo. O trabalho desenvolve testes visando verificar o ganho computacional relacionado a essa estratégia de paralelização, pois as aplicacações computacionais, que empregam a estratégia sequencial, possuem como característica o longo período de computação causado pelo grande volume de cálculo. Inclusive como alternativa, nós usamos o algoritmo em paralelo convencional para solução de algoritmos explícitos para solução de equações diferenciais parciais evolutivas no tempo. Portanto, de acordo com os resultados obtidos, nós observamos as características de cada estratégia em paralelo, tendo como principal objetivo diminuir o esforço computacional despendido.
Resumo:
Esta pesquisa investigou a formação de depósitos arenosos localizados na planície costeira da Baixada de Sepetiba, em Itaguaí, estado do Rio de Janeiro. A deposição sedimentar e a evolução desta área, na Baixada de Sepetiba tem sido estudada nas três últimas décadas, principalmente, porque é um ambiente de depósitos arenosos antigo de idade Holocênica a Pleistocênica que corresponde a uma linha de praia, originada com eventos transgressivos e/ou regressivos que tiveram seu ápice durante o Quaternário. A metodologia de Radar de Penetração no Solo (GPR) é usada, principalmente nos casos de trabalho em que se estuda um ambiente costeiro arenoso. Este campo da Geofísica tem sido usado para examinar características, tais como: a espessura de depósitos arenosos, a profundidade de um aqüífero, a detecção de uma rocha ou um aqüífero, e determina a direção de progradação. Esta pesquisa usa técnicas de radar de penetração no solo (GPR) para analisar as estruturas, em subsuperfície desde que o ambiente estudado seja definido como linha de costa, as margens de uma lagoa mixohalina, chamada Baía de Sepetiba. Neste trabalho realizamos um total de 11 perfis, que foram processados pelo software ReflexWin. Durante o processamento do dado aplicamos alguns filtros, tais como: subtract-mean (dewow), bandpassfrequency e ganhos. E as melhores imagens dos perfis foram realizadas usando-se uma antena de 200 MHz (canal 1) e outra antena de 80 MHz. Neste caso, obtivemos imagens de alta resolução a uma profundidade de até 25 metros.
Resumo:
Este trabalho apresenta uma proposta para permitir o uso compartilhado dos recursos computacionais utilizados em um cluster de forma a atender simultaneamente aos quatro experimentos do CERN. A abordagem adotada utiliza o conceito de contratos, onde os requisitos e restrições de cada experimento são descritos em perfis, e uma política de alocação de recursos é definida para manter a utilização dos recursos de forma a atender aos perfis. Propomos um modelo de arquitetura para gerenciar o uso compartilhado de um cluster pelas quatro Organizações Virtuais do LHC. Este modelo de arquitetura é composto de elementos comuns a um cluster típico da Tier-2, acrescidos de funcionalidades para controlar a admissão de novos jobs de todas as Organizações Virtuais do LHC. Este modelo monitora a utilização de recursos do cluster por cada OV, aloca recursos para cada job de acordo com uma política estabelecida para o cluster de forma a procurar respeitar os requisitos de cada uma delas. Definimos um algoritmo para o escalonamento de jobs, que utiliza mecanismos de preempção para controlar a alocação de nós do cluster dependendo o uso corrente e acumulado de recursos por cada OV. Este algoritmo é executado em um dos elementos da arquitetura batizado de broker, dado que o mesmo intermedeia a chegada de novos jobs e a alocação dos nós do cluster, e tem com objetivo manter o controle dos contratos de cada OV. A simulação da arquitetura proposta foi feita no simulador de grades GridSim e os resultados obtidos foram avaliados.
Resumo:
Este trabalho de mestrado estudou a ilha de Martin Vaz e cinco montes submarinos da Cadeia Vitória-Trindade Columbia, Dogaressa, Davis, Jaseur e Montague. Martin Vaz é um conjunto de ilhas formado pela ilha principal - Martin Vaz, duas ilhotas íngremes e inacessíveis - a Ilha do Norte e a Ilha do Sul além de vários rochedos menores, como o Rochedo Agulha, espalhados a 48 km a leste de Trindade, perfazendo uma área total de 0,3 km. Martin Vaz, assim como os montes submarinos, pertencem a chamada Cadeia Vitória-Trindade, estão inseridos em um contexto tectônico regional cujo trend W-E sugere representar o track da pluma mantélica de Trindade quando da passagem da Placa Sul Americana sobre ela desde o Terciário (CROUGH et al., 1980; OCONNOR & DUNCAN, 1990, GIBSON et at., 1997). A petrografia das amostras de Martin Vaz indica haver basanitos parcialmente alteradas, melanocráticas, textura afanítica, porosas, apresentando vesículas em torno de 1,0-5,0 milímetros. Apresenta fenocristais de piroxênio além de alguns fenocristais de olivina verde-oliva translúcido variando de 1,0-3,0 milímetros. A ilha principal apresenta também diques e necks fonolíticos apresentando matriz microlítica alterada, orientada, de cor verde apresentando minerais ripiformes de cor branca (feldspato alcalino) e outros de cor violácea (titanoaugita) além de pequenos opacos. Pequenos fenocristais de aegerina-augita fortemente pleocroica, alguns apresentando geminação simples, por vezes zonado, apresenta extinção variando de c ∧ α ou X = 23 a 33 (medida de 10 grãos). Biotita laranja amarronzada com textura poiquilítica (1,0 mm), minúsculos cristais euédricos de titanita (raros), além de cristais pseudohexagonais isotrópicos alterados de analcita e carbonatos. As amostras utilizadas neste trabalho de mestrado possuem valor mínimo de 33.91 % SiO2 (TRIM-01D) e máximo de 52,2 (MVA-01) variando de ultrabásicas a básicas. Através da análise dos óxidos SiO2 e MgO é possível distinguir dois grupos de rochas para Martin Vaz: um ultramáfico magnesiano (<42% SiO2 e >7% MgO) e um básico (>45% SiO2) e, para os montes submarinos, dois grupos: um ultramáfico magnesiano (>9% MgO <42% SiO2) e um básico (>45% SiO2 e com valores de MgO em torno de 4%). As análises de Ar-Ar para as quatro amostras de Martin Vaz apresentam idades para o derrame de basanito variando de 320366 Ka (MVA-10) à 623127 Ka (MVA-04). A única amostra datada representando do dique de fonólito é a MVA-05B e obteve idade de 64984 Ka, indicando ser contemporânea ao derrame basanítico.