95 resultados para Websites - Otimização
Resumo:
O uso de técnicas com o funcional de Tikhonov em processamento de imagens tem sido amplamente usado nos últimos anos. A ideia básica nesse processo é modificar uma imagem inicial via equação de convolução e encontrar um parâmetro que minimize esse funcional afim de obter uma aproximação da imagem original. Porém, um problema típico neste método consiste na seleção do parâmetro de regularização adequado para o compromisso entre a acurácia e a estabilidade da solução. Um método desenvolvido por pesquisadores do IPRJ e UFRJ, atuantes na área de problemas inversos, consiste em minimizar um funcional de resíduos através do parâmetro de regularização de Tikhonov. Uma estratégia que emprega a busca iterativa deste parâmetro visando obter um valor mínimo para o funcional na iteração seguinte foi adotada recentemente em um algoritmo serial de restauração. Porém, o custo computacional é um fator problema encontrado ao empregar o método iterativo de busca. Com esta abordagem, neste trabalho é feita uma implementação em linguagem C++ que emprega técnicas de computação paralela usando MPI (Message Passing Interface) para a estratégia de minimização do funcional com o método de busca iterativa, reduzindo assim, o tempo de execução requerido pelo algoritmo. Uma versão modificada do método de Jacobi é considerada em duas versões do algoritmo, uma serial e outra em paralelo. Este algoritmo é adequado para implementação paralela por não possuir dependências de dados como de Gauss-Seidel que também é mostrado a convergir. Como indicador de desempenho para avaliação do algoritmo de restauração, além das medidas tradicionais, uma nova métrica que se baseia em critérios subjetivos denominada IWMSE (Information Weighted Mean Square Error) é empregada. Essas métricas foram introduzidas no programa serial de processamento de imagens e permitem fazer a análise da restauração a cada passo de iteração. Os resultados obtidos através das duas versões possibilitou verificar a aceleração e a eficiência da implementação paralela. A método de paralelismo apresentou resultados satisfatórios em um menor tempo de processamento e com desempenho aceitável.
Resumo:
O presente trabalho analisa a formação da cidade digital nas relações sociais, ressaltando os efeitos da garantia do direito à privacidade no ambiente dos navegantes de sites e redes sociais, em função das repercussões jurídicas do vazamento de informações da vida pessoal dos usuários da rede, e do tratamento dos dados coletados pelos prestadores de serviço. Através do ciberespaço formam-se comunidades virtuais que ultrapassam a necessidade de localidade e sociabilidade, criando um isolamento social e abandonando as interações face a face em ambientes reais, originando uma sociabilidade baseada no individualismo. Avaliamos os novos padrões de interação que se originam nesta nova formatação de coletividade informacional e suas repercussões no âmbito do direito. Em uma perspectiva mais detalhada, esse estudo indica quais as hipóteses de responsabilidade civil dos provedores na Internet em decorrência de atos ilícitos cometidos por terceiros e as alternativas de um sistema de tutela da privacidade à proteção de dados, face à lesão no ambiente informacional. O levantamento das possíveis situações de responsabilização civil foi efetuado através da análise da jurisprudência e da doutrina dominante, ressaltando os aspectos fáticos que caracterizam sua formatação. Esse modelo se impõe, através de uma relação hierárquica a uma multiplicidade de indivíduos, criando um encarceramento perfeito através do exercício do biopoder. Tais papéis são reforçados por uma cultura consumista e a sociedade do espetáculo, que transforma o indivíduo em mercadoria levantando perfis de usuários conectados em rede, propiciando uma categorização dos consumidores. Nesse contexto, apresentamos os riscos de uma sociedade de vigilância que se apresenta factível como um produto das relações de mercado, que possibilita dispor livremente de um conjunto crescente de informações. Esta constante vigilância invade todos os espaços, custodiando nosso comportamento independente do tempo, com uma implacável memória no âmbito das comunicações eletrônicas, tornando nosso passado eternamente visível e fazendo surgir situações constrangedoras a nos assombrar.
Resumo:
Com o passar do tempo, a demanda elétrica de diversas áreas varia tornando necessária a construção de novos geradores elétricos e a expansão da rede de transmissão de energia elétrica. Nesta dissertação, focamos no problema de expansão da rede de transmissão, assumindo que novos geradores estão construídos para suprir as novas demandas. Essa expansão exige altos investimentos que precisam ser cuidadosamente planejados. O problema pode ser modelado como um problema de otimização não linear inteira mista e pertence à classe dos problemas NP-difíceis. Desta forma, uma abordagem heurística pode ser adequada para a sua solução pois pode vir a fornecer boas soluções em tempo computacional aceitável. Esta dissertação se propõe a apresentar um estudo do problema de planejamento da expansão de redes de transmissão de energia elétrica estático e multiestágio. Mostramos o que já existe na literatura para o que é chamado de problema sem redimensionamento e as inovações feitas por nós para o problema com redimensionamento. Quanto aos métodos de solução, utilizamos a metaheurística GRASP para o problema estático e combinamos o GRASP com o procedimento Backward-Forward quando falamos em problema multiestágio. Nesta dissertação comparamos os resultados computacionais obtidos com resultados encontrados na literatura.
Resumo:
Um Estudo para a solução numérica do modelo de difusão com retenção, proposta por Bevilacqua et al. (2011), é apresentado, bem como uma formulação implícita para o problema inverso para a estimativa dos parâmetros envolvidos na formulação matemática do modelo. Através de um estudo minucioso da análise de sensibilidade e do cálculo do coeficiente de correlação de Pearson, são identificadas as chances de se obter sucesso na solução do problema inverso através do método determinístico de Levenberg-Marquardt e dos métodos estocásticos Algoritmo de Colisão de Partículas (Particle Collision Algorithm - PCA) e Evolução Diferencial (Differential Evolution - DE). São apresentados os resultados obtidos através destes três métodos de otimização para três casos de conjunto de parâmetros. Foi observada uma forte correlação entre dois destes três parâmetros, o que dificultou a estimativa simultânea dos mesmos. Porém, foi obtido sucesso nas estimativas individuais de cada parâmetro. Foram obtidos bons resultados para os fatores que multiplicam os termos diferenciais da equação que modela o fenômeno de difusão com retenção.
Resumo:
A estimação de parâmetros cinéticos em processos químicos e cromatográficos utilizando técnicas numéricas assistidas por computadores tem conduzido para melhoria da eficiência e o favorecimento da compreensão das fenomenologias envolvidas nos mesmos. Na primeira parte deste trabalho será realizada a modelagem computacional do processo de produção de biodiesel via esterificação, sendo que, o método de otimização estocástica Random Restricted Window (R2W) será correlacionado com os dados experimentais da produção de biodiesel a partir da esterificação do ácido láurico com etanol anidro na presença do catalisador ácido nióbico (Nb2O5). Na segunda parte do mesmo será realizada a modelagem computacional do processo de cromatografia de adsorção (batch process) onde serão correlacionados os dados provenientes dos modelos cinéticos de HASHIM, CHASE e IKM2 com os dados experimentais da adsorção de amoxicilina com quitosana, e também serão correlacionados os dados experimentais da adsorção de Bovine Serum Albumin (BSA) com Streamline DEAE com os dados provenientes de uma nova aplicação do método R2W mediante a implementação de um modelo cinético reversível. Ademais, as constantes cinéticas para cada processo supracitado serão estimadas levando em consideração o valor mínimo da função resíduos quadrados.
Resumo:
Em órgãos potencialmente importantes na resposta imune, como o baço, alternativas como o autoimplante de segmentos esplênicos, quando a esplenectomia total torna-se necessária, e a utilização de nutrientes com funcionalidade imunomoduladora vêm sendo estudadas, objetivando minimizar o efeito pró-inflamatório persistente da sepse abdominal. O objetivo deste trabalho foi avaliar o efeito do consumo de óleo de peixe na modulação da resposta inflamatória em animais submetidos a esplenectomia total isolada ou combinada com autoimplante esplênico e à indução de sepse abdominal, verificando a possível otimização na resposta pró-inflamatória e a regeneração funcional do autoimplante. Utilizamos 64 ratos machos da linhagem Wistar, com peso variando entre 140-200 g, aleatoriamente distribuídos em oito grupos: quatro grupos-controle (100% óleo de soja) e quatro grupos-intervenção (35% de óleo de peixe), cada um com oito animais. Os dos grupos-controle (animais alimentados com ração purificada, segundo AIN-93, com conteúdo lipídico constituído por 100% óleo de soja) foram: I sem intervenção cirúrgica e, 16 semanas após, submetidos à indução de sepse abdominal; II esplenectomia total isolada e, 16 semanas após, submetidos à indução de sepse abdominal; III esplenectomia total combinada com autoimplante esplênico e, 16 semanas após, submetidos à indução de sepse abdominal; e IV esplenectomia total combinada com autoimplante esplênico e, oito semanas após, submetidos à indução de sepse abdominal. Os dos grupos-intervenção (V a VIII) foram submetidos a procedimentos similares aos executados nos grupos I a IV, respectivamente, sendo a única modificação fundamentada na substituição de 35% do conteúdo lipídico da alimentação dos animais por óleo de peixe. Todos os animais foram submetidos a sepse induzida por ligadura e perfuração cecal (CLP). Coletamos amostras sanguíneas de todos os animais antes da indução da sepse (período 1) e 2 e 4 horas (períodos 2 e 3) após a indução da sepse abdominal. Verificou-se, a cada três dias, massa corporal (MC) e ingestão alimentar (IA). Analisamos as citocinas INF-γ, IL-6 e IL-10 por meio da tecnologia Luminex. Utilizamos o teste T de Student para análise estatística, considerando significativo com p≤0,05. Os dos grupos V, VI e VIII apresentaram maior consumo alimentar que seus controles. Os do grupo V apresentaram menores concentrações de IFN-γ em todos os períodos e maior IL-10 nos períodos 2 e 3. Os do grupo VI apresentaram menores concentrações de todas as citocinas: IFN-γ nos períodos 2 e 3; IL-6 nos períodos 1 e 2; e maior IL-10 nos períodos 1 e 2. Os do grupo VIII apresentaram menor IFN-γ no período 3, IL-6 no período 2, e maior IL-10 no período 1. Não observou-se diferenças nos do grupo VII em nenhuma das citocinas estudadas. Este estudo demonstrou que a utilização do óleo de peixe em pequena dose, consumido cronicamente, como parte do teor lipídico total da dieta e não de forma suplementar, é capaz de manter a massa corporal adequada e reduzir a resposta inflamatória à sepse abdominal induzida por CLP, aumentando a IL-10 plasmática em ratos que não sofreram intervenção cirúrgica, e parece favorecer a regeneração funcional precoce do autoimplante esplênico.
Resumo:
A digitalização das mídias e a influência da tecnologia ocasionaram a difusão de um novo modelo de cinema, conjunto complexo de mudanças pautadas na lógica econômica e em um processo de cognição específico. Nesse contexto, na nova disposição do cinema, observa-se uma transformação no processo narrativo fílmico para além de novos formatos e conteúdos audiovisuais. Para investigar o fenômeno da polidimensionalidade do conceito da narrativa no cinema contemporâneo, a presente dissertação realiza uma análise qualitativa de exemplos significativos do cinema comercial, considerando a não-linearidade, a transnacionalização, a transmídia, além de destacar a vertente da multiplicidade narrativa, da polidimensionalidade, no cinema experimental e nas instalações artísticas. Como recorte do objeto de pesquisa, optou-se pela análise do filme Slumdog Millionaire (2008), nos itens transnacionalização e não-linearidade; dos filmes Watchmen (2009) e Batman (The Dark Knight, 2008), como franquias de transmídia; além da multiplicidade do cinema experimental What we will e instalações. O critério de seleção dos filmes foi o destaque que obtiveram nas respectivas categorias nos últimos dois anos, nas grandes bilheterias do cinema comercial pelos sites Filme B e The Internet Movie Database
Resumo:
Neste trabalho apresentamos as etapas para a utilização do método da Programação Dinâmica, ou Princípio de Otimização de Bellman, para aplicações de controle ótimo. Investigamos a noção de funções de controle de Lyapunov (FCL) e sua relação com a estabilidade de sistemas autônomos com controle. Uma função de controle de Lyapunov deverá satisfazer a equação de Hamilton-Jacobi-Bellman (H-J-B). Usando esse fato, se uma função de controle de Lyapunov é conhecida, será então possível determinar a lei de realimentação ótima; isto é, a lei de controle que torna o sistema globalmente assintóticamente controlável a um estado de equilíbrio. Como aplicação, apresentamos uma modelagem matemática adequada a um problema de controle ótimo de certos sistemas biológicos. Este trabalho conta também com um breve histórico sobre o desenvolvimento da Teoria de Controle de forma a ilustrar a importância, o progresso e a aplicação das técnicas de controle em diferentes áreas ao longo do tempo.
Resumo:
O presente trabalho trata do escoamento bifásico em meios porosos heterogêneos de natureza fractal, onde os fluidos são considerados imiscíveis. Os meios porosos são modelados pela equação de Kozeny-Carman Generalizada (KCG), a qual relaciona a porosidade com a permeabilidade do meio através de uma nova lei de potência. Esta equação proposta por nós é capaz de generalizar diferentes modelos existentes na literatura e, portanto, é de uso mais geral. O simulador numérico desenvolvido aqui emprega métodos de diferenças finitas. A evolução temporal é baseada em um esquema de separação de operadores que segue a estratégia clássica chamada de IMPES. Assim, o campo de pressão é calculado implicitamente, enquanto que a equação da saturação da fase molhante é resolvida explicitamente em cada nível de tempo. O método de otimização denominado de DFSANE é utilizado para resolver a equação da pressão. Enfatizamos que o DFSANE nunca foi usado antes no contexto de simulação de reservatórios. Portanto, o seu uso aqui é sem precedentes. Para minimizar difusões numéricas, a equação da saturação é discretizada por um esquema do tipo "upwind", comumente empregado em simuladores numéricos para a recuperação de petróleo, o qual é resolvido explicitamente pelo método Runge-Kutta de quarta ordem. Os resultados das simulações são bastante satisfatórios. De fato, tais resultados mostram que o modelo KCG é capaz de gerar meios porosos heterogêneos, cujas características permitem a captura de fenômenos físicos que, geralmente, são de difícil acesso para muitos simuladores em diferenças finitas clássicas, como o chamado fenômeno de dedilhamento, que ocorre quando a razão de mobilidade (entre as fases fluidas) assume valores adversos. Em todas as simulações apresentadas aqui, consideramos que o problema imiscível é bidimensional, sendo, portanto, o meio poroso caracterizado por campos de permeabilidade e de porosidade definidos em regiões Euclideanas. No entanto, a teoria abordada neste trabalho não impõe restrições para sua aplicação aos problemas tridimensionais.
Resumo:
Esta dissertação apresenta uma pesquisa que teve por objetivo descobrir qual a relação das crianças com a Internet e mais especificamente com os sites. Tendo como interlocutores cinco crianças que moram em uma mesma Vila Residencial, a pesquisa, que aconteceu neste espaço, pautou-se em questões do cotidiano, para investigar os usos que as crianças fazem dos sites que acessam. Os desafios de pesquisar em espaços particulares, onde questões como amizade, autoridade e metodologia de pesquisa ganharam destaque, fizeram-se presentes em todo o processo: do campo à escrita do texto. Uma grande questão que perpassa a discussão metodológica é sobre como, ao pesquisar através dos jogos, surge o desafio em conciliar os papéis de pesquisadora e jogadora. As reflexões sobre a construção de uma metodologia de pesquisa em espaços particulares contou com a contribuição de autores como Nilda Alves, Mikhail Bakhtin, Marília Amorim, Angela Borba, Fabiana Marcello dentre outros. As questões do cotidiano foram feitas a partir do debate principalmente com Michel de Certeau. As reflexões mais específicas sobre a Internet foram feitas a partir do que emergiu em campo, com as crianças, e contaram com o auxílio de, entre outros, André Lemos, Edméa Santos, Lucia Santaella e Marco Silva.
Resumo:
Nos diversos segmentos da Geotecnia e em especial na área de fundações, o engenheiro se depara com uma série de incertezas. Algumas destas incertezas são inerentes à variabilidade local do solo, às condições de carregamento, aos efeitos do tempo, às diferenças nos processos executivos, erros de sondagens, que influenciam diretamente a estimativa da capacidade de carga da fundação, seja por ocasião de seu carregamento estático, seja durante ou logo após a cravação. O objetivo desta dissertação é a adaptação, a estacas em terra (onshore), de um procedimento concebido originalmente para emprego em estacas offshore, que trata da atualização da estimativa da resistência durante a cravação, com base em registros documentados durante a execução. Neste procedimento a atualização é feita através da aplicação dos conceitos da análise Bayesiana, assumindo que os parâmetros da distribuição probabilística utilizada sejam variáveis randômicas. A incerteza dos parâmetros é modelada por distribuições a priori e a posteriori. A distribuição a posteriori é calculada pela atualização da distribuição a priori, utilizando uma função de máxima verossimilhança, que contém a observação obtida dos registros de cravação. O procedimento é aplicado a um conjunto de estacas de um extenso estaqueamento executado na Zona Oeste do Rio de Janeiro. As estimativas atualizadas são posteriormente comparadas aos resultados dos ensaios de carregamento dinâmico. Várias aplicações podem surgir com o emprego deste procedimento, como a seleção das estacas que, por apresentarem reduzido valor de estimativa atualizada de resistência, ou uma maior incerteza desta estimativa, devam ser submetidas a provas de carga. A extensão deste estudo a diferentes tipos de estacas em perfis de solo de natureza distintos poderá levar ao desenvolvimento de sistemas mais adequados de controle de execução, capazes de identificar as principais incertezas presentes nos diferentes tipos de execução de estacas, contribuindo assim para a otimização de futuros projetos de fundações.
Resumo:
As eleições 2010 entraram para a história da comunicação política como a primeira em que candidatos puderam fazer uso de outras plataformas digitais que não fossem os websites. O conteúdo divulgado pelos políticos, assessores e internautas nas redes sociais acabou sendo apropriado e noticiado pela imprensa. Esta pesquisa tem por objetivo compreender melhor como a internet, e mais precisamente o Twitter, tem interferido e alterado o modo de produção jornalística na cobertura das eleições e quais foram os efeitos nas reportagens publicadas. Para isso, buscaremos analisar como os jornais Folha de S.Paulo e O Globo fizeram uso de posts do Twitter na cobertura da campanha presidencial. Nosso intuito é avaliar se os jornais buscaram captar o comportamento dos internautas no microblo g ou se reproduziram mais os tweets dos candidatos, assessores e outras fontes notáveis. Pretendemos verificar ainda as características dos posts utilizados pelos veículos em suas matérias e notas e criar categorias que identifiquem quais assuntos que circulavam no microblog eram de interesse da imprensa.
Resumo:
Este trabalho verificou o tema de segurança de processos no segmento de plataformas de produção de petróleo e gás no mar de forma a propor um modelo de indicadores globais a fim de facilitar a identificação de fragilidades no gerenciamento de riscos de processos da indústria de produção de petróleo e gás natural no mar. O resultado esperado é o fornecimento de dados para a otimização de recursos regulatórios na busca da melhoria da segurança operacional. Para tal, buscando conhecer a postura das empresas no cumprimento da necessidade regulamentar da implementação de um Sistema de Gestão de Segurança de Processos (SGSP), foram identificadas as principais práticas preventivas para a o gerenciamento de riscos. Por conseguinte, mensurou-se o esforço na implementação deste SGSP como correlação direta para a prevenção de acidentes (foco preventivo). Já a análise dos resultados deste gerenciamento de riscos (foco reativo) foi obtido através incidentes operacionais classificados de acordo com sua respectiva importância/impacto, dentro de linhas de corte pré-estabelecidas. Assim, o indicador Global preventivo (IGPRV) e o Indicador Global reativo (IGRTV) foram elaborados agregando diferentes indicadores específicos de cada segmento para simplificar a análise e incluir a articulação de conceitos de segurança de processos à atuação regulatória. Os indicadores globais propostos quantificam conceitos subjetivos e complexos para o estabelecimento de metas e permitem aferir o desempenho das ações e projetos da regulação da indústria. Também permitem a identificação e a disseminação das melhores práticas de gerenciamento de riscos, comparando-as em diferente níveis de gerenciamento. Na análise dos resultados, pôde-se perceber que a utilização dos indicadores globais propostos pode responder com sucesso às necessidades regulatórias identificadas
Resumo:
Ao discorrer-se sobre o tema Planejamento Tributário as considerações remetem, quase que de forma intuitiva, aos interesses unicamente das entidades contribuintes, que depositam nos seus gestores a incumbência de otimização de seus patrimônios. Entretanto, esse é um instrumental igualmente indispensável no repertório de soluções a serem adotadas pelos gestores públicos, também responsáveis em gerir da melhor forma possível o patrimônio, neste caso, da sociedade. Considerando a visão do gestor público sobre Planejamento Tributário, a qual foi chamada Ótica do Estado, este trabalho procurou trazer a dívida ativa nos municípios fluminenses para o centro da discussão, atribuindo-lhe um enfoque mais financeiro, tendo em vista que grande parte dos trabalhos que lhes são direcionados assenta-se sobre considerações jurídico-legais. Sendo assim, foram analisados dados extraídos de órgãos oficiais buscando-se verificar as relações existentes entre a cobrança de créditos inscritos em dívida ativa, os preceitos da Lei de Responsabilidade Fiscal e o comportamento dos contribuintes oriundo da postura do agente fiscalizador. Para tanto, a metodologia foi dividida em duas abordagens distintas (momentos). Para a primeira abordagem foi desenvolvida uma forma de conceituação para os níveis de recebimento de dívida ativa dos municípios, estruturada sobre a adaptação dos critérios desenvolvidos pela Associação Brasileira de Orçamento Público (ABOP); na segunda abordagem foram utilizados também de forma adaptada os parâmetros desenvolvidos pela Secretaria do Tesouro Nacional (STN) para análise das finanças municipais no Brasil. Os resultados sugerem que a maioria dos municípios fluminenses está transgredindo a LRF e que há influência no comportamento fiscal dos contribuintes.
Resumo:
A implantação de sistemas de custos no setor público tem sido apontada como uma necessidade gerencial primordial para se alcançar as dimensões dos princípios da eficiência, eficácia e efetividade na administração pública, fato que proporcionaria a otimização do uso dos escassos recursos disponíveis. Com o advento da Lei de Responsabilidade Fiscal entrou em evidência a discussão sobre o tema no cenário nacional, sendo mais recentemente criada no governo federal uma comissão interministerial de custos com objetivo de elaborar estudos e propor diretrizes, métodos e procedimentos para subsidiar a implantação de Sistemas de Custos na Administração Pública Federal. Tendo em vistas essas necessidades, o presente trabalho tem por objetivo principal verificar a adequabilidade do Sistema Gerencial de Custos (SISCUSTOS) implantado no Exército Brasileiro permite a apuração de custos sob a ótica da teoria contábil e complementarmente analisar se o sistema de custos adequasse as metodologias do custeio ABC e fornece subsídios para a tomada de decisões. Para isso realizou-se um estudo de caso de natureza qualitativa, coletando-se dados de fontes primárias e secundárias, além de entrevistas com os servidores responsáveis pelo desenvolvimento, implantação e operacionalização do sistema. O resultado verificado foi que as funcionalidades disponibilizadas pelo SISCUSTOS vislumbram a aderência do sistema com o plano teórico, permitindo que as informações extraídas da contabilidade governamental contemporânea sejam ajustadas, para uma possível aproximação da contabilidade orçamentária com a contabilidade patrimonial, necessitando apenas de alguns ajustes para itens aqui denominados como peculiares da contabilidade governamental. No caso do método de custeio ABC observou-se que a metodologia está sendo subtilizada, e que o grau desejado em extrair todas as contribuições disponibilizadas pelo ABC somente virá com a maturidade da gestão de custos, sendo que, para atingir tais objetivos haverá a necessidade de se fixar como atributos cognitivos os 4C - Cultura de Custos, Comprometimento, Competição e Confiabilidade - entre os usuários do sistema e a alta administração.