141 resultados para Projecto de execução


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho de pesquisa descreve dois estudos de caso de métodos quimiométricos empregados para a quantificação de hidrocarbonetos policíclicos aromáticos HPAs (naftaleno, fluoreno, fenantreno e fluoranteno) em água potável usando espectroscopia de fluorescência molecular e a classificação e caracterização de sucos de uva e seus parâmetros de qualidade através de espectroscopia de infravermelho próximo. O objetivo do primeiro estudo é a aplicação combinada de métodos quimiométricos de segunda ordem (N-PLS, U-PLS, U-PLS/RBL e PARAFAC) e espectrofluorimetria para determinação direta de HPAs em água potável, visando contribuir para o conhecimento do potencial destas metodologias como alternativa viável para a determinação tradicional por cromatografia univariada. O segundo estudo de caso destinado à classificação e determinação de parâmetros de qualidade de sucos de uva, densidade relativa e teor de sólidos solúveis totais, foi medida por espectroscopia de infravermelho próximo e métodos quimiométricos. Diversos métodos quimiométricos, tais como HCA, PLS-DA, SVM-DA e SIMCA foram investigados para a classificação amostras de sucos de uva ao mesmo tempo que métodos de calibração multivariada de primeira ordem, tais como PLS, iPLS e SVM-LS foram usadas para a predição dos parâmetros de qualidade. O princípio orientador para o desenvolvimento dos estudos aqui descritos foi a necessidade de metodologias analíticas com custo, tempo de execução e facilidade de operação melhores e menor produção de resíduos do que os métodos atualmente utilizados para a quantificação de HPAs, em água de torneira, e classificação e caracterização das amostras de suco de uva e seus parâmetros de qualidade

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Artes de Exu trata os objetos de arte não só pelos aspectos artísticos e sociológicos, mas também pelos aspectos que ligam as obras a Exu, além do enunciado. Como coisa contida na concepção, na execução e imbricada na própria história da obra. As obras escolhidas são: Tridente de NI (2006) de Alexandre Vogler e Exu dos Ventos (1992), de Mario Cravo Júnior. As obras contêm conflitos que envolvem a mídia, religiosos e políticos. A partir de pesquisas etnográficas é feita uma análise dos olhares que se cruzam na construção dos sentidos na disputa pelo espaço simbólico, considerando ainda o trânsito percorrido pelas obras entre a oficina, o espaço de exposição e a rua. Pertence ainda ao corpo das análises as referências na mídia impressa, forma de veiculação das imagens, apropriações e discursos. As artes de Exu se evidenciam no desenrolar dessas tramas, conforme os objetos artísticos oferecem um lugar para pensar na conciliação entre diferentes: entre a cruz e o tridente, entre Cristo e Exu e entre cristãos e religiões de matriz africana

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho tem por objetivo contribuir para a melhoria do gerenciamento do processo construtivo de execução de pontes e viadutos em estruturas segmentadas pré-moldadas protendidas, construídas em balanços sucessivos, com base em uma análise das metodologias adotadas e verificando a viabilidade de implantação de um modelo nos processos de gestão que utilizam métodos industriais para execução de obras de arte especiais. A partir da revisão da literatura técnica disponível e tomando como referência os métodos construtivos utilizados em dois canteiros de obras distintos, analisa-se a metodologia de gerenciamento construtivo adotada visando ao aperfeiçoamento do processo de fabricação e montagem, e consequente redução dos custos, desperdícios e prazos. Dentre os vários aspectos observados, ressalta-se a importância de se utilizar uma ferramenta de gerenciamento de projeto nas obras de pontes pré-moldadas, por se mostrarem um processo industrializado, repetitivo e com funcionamento similar a uma unidade fabril. Neste contexto, esta pesquisa visa fornecer subsídios para que se possam estabelecer diretrizes para uma melhor integração do projeto com a construção e conseqüente melhoria da execução nos canteiros de obras.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Recentemente a utilização de estruturas mistas, aço concreto, vem ganhando espaço nas construções. Isso deve-se principalmente a economia de tempo em sua execução. Além disto, nesta solução a utilização do aço e do concreto otimiza as características estruturais de seus elementos: a resistência a tração do aço e a compressão do concreto. A transferência dos esforços entre os dois materiais possui grande influência no desempenho de uma estrutura mista, sendo comum a utilização de conectores de cisalhamento na região da interface entre estes dois materiais. O Eurocode 4 define um ensaio experimental denominado push-out de modo a determinar a resistência e ductilidade de conectores de cisalhamento. Seu desempenho é influenciado pelas resistências do concreto a compressão, as dimensões e taxa de armadura da laje de concreto, dimensões do perfil de aço, a disposição e a geometria dos conectores e pelas características dos aços utilizados no conector, no perfil e nas barras de reforço. Nota-se com isso uma grande quantidade de variáveis que influenciam o ensaio. Assim, o presente trabalho apresenta o desenvolvimento de um modelo em elementos finitos com base no programa ANSYS para simulação de ensaios push-out. Os resultados numéricos apresentados neste trabalho foram calibrados com resultados obtidos em ensaios experimentais existentes na literatura de ensaios push-out para conectores do tipo pino com cabeça (stud) e conectores tipo perfobond. Estes últimos apresentam elevada resistência sendo influenciados por inúmeros fatores como: número e diâmetro dos furos no conector e a inclusão ou não de barras de reforço extras nestes furos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho objetivou traçar um percurso analítico da base institucional e material da gestão da arborização na cidade do Rio de Janeiro, visando a adoção de procedimentos para a quantificação do carbono armazenado nas árvores na malha urbana para possibilitar o conhecimento sobre o arboreto e o estabelecimento de objetivos quantificáveis, reportáveis e verificáveis de redução de emissões de gases de efeito estufa. Com a instituição da obrigatoriedade em nível nacional da metas de redução das emissões de gases de efeito estufa, através da Lei n 12.187/09, o município do Rio de Janeiro oficializou legalmente, com a Lei Muncipal n 5.248/11, o compromisso de adoção de medidas e programas de incentivo para reduzir as emissões de gases de efeito estufa na cidade. Entretanto, a única ação de mitigação controlada pelo município, com procedimentos regulamentados, é a compensação de emissões nas construções através do plantio de árvores. O acompanhamento da execução dos plantios de árvores, exigidos no licenciamento das construções é a atual forma de estabelecer objetivos quantificáveis, reportáveis e verificáveis de redução de emissões antrópicas de gases de efeito estufa no Município. De forma específica, foi realizada uma análise dos recursos institucionais e materiais disponíveis e potenciais à disposição do sistema de planejamento e gestão ambiental do município, com a proposição de criar um sistema de banco de dados (SGBD) da arborização urbana. O banco de dados estruturado ao longo da pesquisa, foi utilizado em um sistema de informação geográfico (SIG), onde foi possível realizar um estudo exploratório da estimativa de estoque de carbono em árvores em logradouros. A investigação desta pesquisa teve dupla expectativa: contribuir para a eficácia das ações de manejo e controle do arboreto urbano, com base no monitoramento contínuo dos serviços ambientais das árvores; e consolidar critérios analíticos habilitados para quantificar as alterações de fitomassa do arboreto urbano, em uma proposta de um plano de arborização para a cidade, até agora inexistente, que foi delineado ao final do trabalho, que seguramente irá garantir significativos benefícios ambientais, econômicos e sociais à sociedade.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Dissertação busca fazer uma reflexão sobre o racismo, a violência e o extermínio de adolescentes e jovens pobres e negros. Não é uma situação nova. Contudo, é pertinente levantar de que modo, como e por quais vias histórico-político-sociais este problema se constituiu. A forma extrema da violência vivenciada pela juventude negra, as execuções sumárias, não exclui outras formas de violações de direitos, como pouco acesso aos bens materiais e culturais, entre os quais educação, saúde, lazer. A nossa hipótese é de que o racismo tem sido o eixo central perverso impedindo a juventude negra de ter sua cidadania efetivada. Ao lado desta reflexão, trazemos o caso de Vitória da Conquista/BA, para ilustrar como está violência não se encontra restrita aos grandes centros urbanos, mas atinge também as pequenas e médias cidades do interior. Através dos depoimentos dos familiares das vítimas, bem como notícias de jornais, confirma-se a participação de policiais em muitos dos casos de execução. Neste sentido, é nossa hipótese, que o racismo e a violência tem sido incorporados ao aparelho repressor do Estado, dificultando e mesmo impedindo que políticas públicas direcionadas aos jovens tenham maior efetividade.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este estudo é o resultado de uma reflexão sobre a implementação de uma política de inclusão que se encontra em desenvolvimento, propondo a formação profissional como um meio possível de inclusão do aluno com deficiência na sociedade. Essa pesquisa, de natureza qualitativa, foi desenvolvida por meio de um estudo de caso com enfoque etnográfico, somados às experiências de campo adquiridas em nossa prática na rede de ensino Faetec. Como lócus foi utilizado o programa de inclusão, setor responsável pela execução da política de inclusão na referida rede de ensino. Os procedimentos utilizados como instrumentos na coleta de dados foram a observação participante, a análise documental, as entrevistas abertas e semiestruturadas e o grupo focal com os professores implementadores do programa de inclusão. Procuramos compreender os limites e as possibilidades do processo de implementação de uma política em ação, com vista à remoção de barreira à aprendizagem, à participação dos alunos com deficiências. Para a análise dos dados, utilizamos a análise de conteúdo. Os dados revelaram os desafios e as reais condições da Instituição em relação aos seguintes aspectos: política de ingresso dos alunos com deficiência à rede de ensino Faetec, concepções difusas acerca da inclusão na Instituição, recursos humanos relacionados aos aspectos da formação docente, acessibilidade e a necessidade do suporte para inclusão educacional. O estudo revelou não só as contradições, mas também a complexidade do processo de inclusão vivenciado na rede, em especial, no âmbito da cultura institucional. O estudo destaca que o processo de inclusão em educação, desenvolvido na Faetec constitui-se em uma possibilidade, ainda que se apresente imerso num cenário de contradições. Aponta para necessidade de se ampliar os estudos na área cultural, uma vez que esta dimensão se mostrou fundamental. Como considerações finais, destacamos a importância de se pensar a formação dos professores numa perspectiva inclusiva e dialógica e o papel da escola e dos educadores no atendimento à diversidade dos alunos, tendo em vista a sua formação humana e profissional.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os métodos espectrais são ferramentas úteis na análise de dados, sendo capazes de fornecer informações sobre a estrutura organizacional de dados. O agrupamento de dados utilizando métodos espectrais é comumente baseado em relações de similaridade definida entre os dados. O objetivo deste trabalho é estudar a capacidade de agrupamento de métodos espectrais e seu comportamento, em casos limites. Considera-se um conjunto de pontos no plano e usa-se a similaridade entre os nós como sendo o inverso da distância Euclidiana. Analisa-se a qual distância mínima, entre dois pontos centrais, o agrupamento espectral é capaz de reagrupar os dados em dois grupos distintos. Acessoriamente, estuda-se a capacidade de reagrupamento caso a dispersão entre os dados seja aumentada. Inicialmente foram realizados experimentos considerando uma distância fixa entre dois pontos, a partir dos quais os dados são gerados e, então, reduziu-se a distância entre estes pontos até que o método se tornasse incapaz de efetuar a separação dos pontos em dois grupos distintos. Em seguida, retomada a distância inicial, os dados foram gerados a partir da adição de uma perturbação normal, com variância crescente, e observou-se até que valor de variância o método fez a separação dos dados em dois grupos distintos de forma correta. A partir de um conjunto de pontos obtidos com a execução do algoritmo de evolução diferencial, para resolver um problema multimodal, testa-se a capacidade do método em separar os indivíduos em grupos diferentes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O trabalho está voltado à elaboração de uma teoria dos crimes omissivos, com o sentido de obter uma limitação de sua expansão. Para alcançar esse objetivo, são postas em discussão todas as concepções do crime omissivo, tanto no aspecto dogmático quanto de política criminal. Na primeira parte, estão apresentados os problemas práticos da omissão, sua evolução legislativa e sua importância. A partir daí, são discutidas as elaborações doutrinárias quanto à sua natureza, à sua estrutura e à sua punibilidade. Quanto à sua natureza, a omissão é analisada como forma de ação, como forma equiparada de ação e como forma correspondente de ação. Quanto à sua estrutura, a omissão é vista sob o enfoque de seu tratamento legal, que requer um aprofundamento da composição da norma e de seus elementos comunicativos. Quanto à sua punibilidade, são destacados seus aspectos contraditórios referentes à falta de simetria entre sua estrutura empírica e normativa, de um lado, e as consequências pelo descumprimento do dever, de outro lado. Na segunda parte, formata-se uma conclusão dogmática crítica de toda a discussão em torno da natureza, da estrutura e da punibilidade da omissão. Inicia-se sob uma crítica dos objetivos da dogmática e se projeta sobre todas as questões fundamentais que envolvem os crimes omissivos. São feitas assertivas sobre a tipicidade, a antijuridicidade e a culpabilidade da omissão, assim como sobre o concurso de pessoas e suas fases de execução. Para não sobrecarregar o texto, são tratados em anexo os temas relacionados ao concurso de crimes e aos delitos omissivos culposos. Tendo em vista que a segunda parte constitui uma conclusão de todo o desenvolvimento crítico da omissão, realizado na primeira parte, não foram enumerados tópicos conclusivos. O método empregado está baseado no princípio dialético construtivista de Holzcamp.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Aplicações cientes de contexto precisam de mecanismos para recuperar informações sobre o seu contexto de execução. Com base no contexto atual, tais aplicações são capazes de se autoadaptar para fornecer informações e serviços adequados aos seus usuários. A abordagem comum para infraestruturas de apoio às aplicações sensíveis ao contexto fornece serviços para a descoberta de recursos através da utilização de pares e motores que executam apenas correspondência sintática. Esta abordagem não considera as possíveis relações semânticas entre as palavras-chave usadas. Portanto, a sua expressividade semântica limitada, leva a um serviço de descoberta que provê baixa taxa de recuperação e baixa acurácia. Este trabalho apresenta a utilização de uma outra abordagem para o serviço de contexto e descoberta, que utiliza ontologias para representar os recursos do contexto de execução e capturar a semântica da consulta do usuário, melhorando assim o processo de descoberta para a autoadaptação de sistemas sensíveis ao contexto. A abordagem proposta oferece também pontos de extensão para as aplicações clientes através da utilização de outras ontologias. Esta abordagem foi integrada à infraestrutura CDRF, de forma a adicionar semântica aos serviços desenvolvidos neste projeto. Exemplos de aplicações são também propostos para demonstrar a utilização dos novos serviços.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A demanda crescente por poder computacional estimulou a pesquisa e desenvolvimento de processadores digitais cada vez mais densos em termos de transistores e com clock mais rápido, porém não podendo desconsiderar aspectos limitantes como consumo, dissipação de calor, complexidade fabril e valor comercial. Em outra linha de tratamento da informação, está a computação quântica, que tem como repositório elementar de armazenamento a versão quântica do bit, o q-bit ou quantum bit, guardando a superposição de dois estados, diferentemente do bit clássico, o qual registra apenas um dos estados. Simuladores quânticos, executáveis em computadores convencionais, possibilitam a execução de algoritmos quânticos mas, devido ao fato de serem produtos de software, estão sujeitos à redução de desempenho em razão do modelo computacional e limitações de memória. Esta Dissertação trata de uma versão implementável em hardware de um coprocessador para simulação de operações quânticas, utilizando uma arquitetura dedicada à aplicação, com possibilidade de explorar o paralelismo por replicação de componentes e pipeline. A arquitetura inclui uma memória de estado quântico, na qual são armazenados os estados individuais e grupais dos q-bits; uma memória de rascunho, onde serão armazenados os operadores quânticos para dois ou mais q-bits construídos em tempo de execução; uma unidade de cálculo, responsável pela execução de produtos de números complexos, base dos produtos tensoriais e matriciais necessários à execução das operações quânticas; uma unidade de medição, necessária à determinação do estado quântico da máquina; e, uma unidade de controle, que permite controlar a operação correta dos componente da via de dados, utilizando um microprograma e alguns outros componentes auxiliares.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Como eventos de fissão induzida por nêutrons não ocorrem nas regiões nãomultiplicativas de reatores nucleares, e.g., moderador, refletor, e meios estruturais, essas regiões não geram potência e a eficiência computacional dos cálculos globais de reatores nucleares pode portanto ser aumentada eliminando os cálculos numéricos explícitos no interior das regiões não-multiplicativas em torno do núcleo ativo. É discutida nesta dissertação a eficiência computacional de condições de contorno aproximadas tipo albedo na formulação de ordenadas discretas (SN) para problemas de autovalor a dois grupos de energia em geometria bidimensional cartesiana. Albedo, palavra de origem latina para alvura, foi originalmente definido como a fração da luz incidente que é refletida difusamente por uma superfície. Esta palavra latina permaneceu como o termo científico usual em astronomia e nesta dissertação este conceito é estendido para reflexão de nêutrons. Este albedo SN nãoconvencional substitui aproximadamente a região refletora em torno do núcleo ativo do reator, pois os termos de fuga transversal são desprezados no interior do refletor. Se o problema, em particular, não possui termos de fuga transversal, i.e., trata-se de um problema unidimensional, então as condições de contorno albedo, como propostas nesta dissertação, são exatas. Por eficiência computacional entende-se analisar a precisão dos resultados numéricos em comparação com o tempo de execução computacional de cada simulação de um dado problema-modelo. Resultados numéricos para dois problemas-modelo com de simetria são considerados para ilustrar esta análise de eficiência.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Redes embutidas (NoC, Network-on-Chip) vêm sendo adotadas como uma solução interessante para o projeto de infraestruturas de comunicação em sistemas embutidos (SoC, System-on-Chip). Estas redes são em geral parametrizadas, podendo assim ser utilizadas em vários projetos de SoCs, cada qual com diferentes quantidades de núcleos. NoCs permitem uma escalabilidade dos sistemas, ao mesmo tempo que balanceiam a comunicação entre núcleos. Projetos baseados em NoC visam a implementação de uma aplicação específica. Neste contexto, ferramentas de auxílio de projeto são essenciais. Estas ferramentas são projetadas para, a partir de uma descrição simples da aplicação, realizar sucessivos processos de otimização que irão modelar as várias características do sistema. Estes algoritmos de otimização são necessários para que a rede atenda a um conjunto de restrições, como área, consumo de energia e tempo de execução. Dentre estas etapas, pode ser incluído o roteamento estático. As rotas através da rede por onde os núcleos irão se comunicar são otimizadas, de forma a minimizar o tempo de comunicação e os atrasos na transmissão de pacotes ocasionados por congestionamentos nas chaves que compõem a NoC. Nesta dissertação, foi utilizada a otimização por colônia de formigas no cálculo dos percursos. Esta é uma meta-heurística interessante para a solução de problemas de busca em grafos, inspirada no comportamento de formigas reais. Para os algoritmos propostos, múltiplas colônias são utilizadas, cada uma encarregada pela otimização do percurso de uma mensagem. Os diferentes testes realizados mostram o roteamento baseado no Elitist Ant System obtendo resultados superiores a outros algoritmos de roteamento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho trata do funcionamento da prescrição extintiva relacionada a ações pessoais, além da decadência, no âmbito do direito internacional privado. Primeiramente é feita uma breve análise histórica e comparatista do direito de regência da prescrição em relações de caráter internacional antes de se demonstrar a solução abarcada pelo direito brasileiro: a regência pela lei que rege a obrigação (lex causae). Apesar de ser um instituto de direito civil, substantivo, a prescrição possui muitas ligações com o direito processual, uma vez que o principal efeito de sua consumação é tonar inexigível uma obrigação e, em decorrência, pôr fim a um processo. Assim, o autor detalha em seguida as questões que são regidas pela lex causae e as que são regidas pela lex fori (aqui abrangendo também a lex arbitri) em matéria de prescrição no direito brasileiro, antes de tratar minuciosamente de como se opera a exceção da ordem pública para afastar a aplicação da lex causae estrangeira em matéria de prescrição no Brasil (incluindo também regras de aplicação imediata lois de police brasileiras). Ao final, cuida-se da prescrição na homologação e execução de sentenças estrangeiras no Brasil.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O uso de técnicas com o funcional de Tikhonov em processamento de imagens tem sido amplamente usado nos últimos anos. A ideia básica nesse processo é modificar uma imagem inicial via equação de convolução e encontrar um parâmetro que minimize esse funcional afim de obter uma aproximação da imagem original. Porém, um problema típico neste método consiste na seleção do parâmetro de regularização adequado para o compromisso entre a acurácia e a estabilidade da solução. Um método desenvolvido por pesquisadores do IPRJ e UFRJ, atuantes na área de problemas inversos, consiste em minimizar um funcional de resíduos através do parâmetro de regularização de Tikhonov. Uma estratégia que emprega a busca iterativa deste parâmetro visando obter um valor mínimo para o funcional na iteração seguinte foi adotada recentemente em um algoritmo serial de restauração. Porém, o custo computacional é um fator problema encontrado ao empregar o método iterativo de busca. Com esta abordagem, neste trabalho é feita uma implementação em linguagem C++ que emprega técnicas de computação paralela usando MPI (Message Passing Interface) para a estratégia de minimização do funcional com o método de busca iterativa, reduzindo assim, o tempo de execução requerido pelo algoritmo. Uma versão modificada do método de Jacobi é considerada em duas versões do algoritmo, uma serial e outra em paralelo. Este algoritmo é adequado para implementação paralela por não possuir dependências de dados como de Gauss-Seidel que também é mostrado a convergir. Como indicador de desempenho para avaliação do algoritmo de restauração, além das medidas tradicionais, uma nova métrica que se baseia em critérios subjetivos denominada IWMSE (Information Weighted Mean Square Error) é empregada. Essas métricas foram introduzidas no programa serial de processamento de imagens e permitem fazer a análise da restauração a cada passo de iteração. Os resultados obtidos através das duas versões possibilitou verificar a aceleração e a eficiência da implementação paralela. A método de paralelismo apresentou resultados satisfatórios em um menor tempo de processamento e com desempenho aceitável.