58 resultados para Probabilidade geometrica


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Essa pesquisa teve como objetivo analisar a aplicabilidade de uma metodologia de investigação das disfunções existentes no conjunto de dados eleitorais de uma eleição para cargo majoritário no Brasil. O desenvolvimento e a rápida expansão da teoria descoberta por Newcomb-Benford, conhecida como Lei de Benford, bastante difundida por Mark J. Nigrini, Ph.D. no meio contábil, com a utilização de testes estatísticos, despertou o interesse por esta pesquisa. Vislumbrou-se a possibilidade de reduzir o risco de fraude eleitoral através da utilização da análise digital. Entretanto, é necessário adotar procedimentos mais acurados para que possíveis erros de aplicação do método analisado não acabem inviabilizando os efeitos benéficos trazidos pelo mesmo. A probabilidade de ocorrência do erro tipo I alarme falso pode levar ao aumento de custo na análise dos dados. Um dos maiores problemas encontrados em auditorias, contábeis ou não, diz respeito à falha na obtenção de evidências. No Brasil, a partir da utilização de sistema de processamento eletrônico de votação, houve um aumento da preocupação com a fraude, visto que não existe ainda um procedimento que permita verificar, por trilha de auditoria, a confiabilidade dos dados eleitorais. Para atingir o objetivo da pesquisa, foi realizada a aplicação do método estudado em um conjunto de dados relativos à eleição para cargo majoritário Presidente da República do Brasil - no ano de 2010, e a posterior análise dos resultados obtidos. Então, a partir dos resultados obtidos, pode-se sugerir a aplicabilidade da Lei de Benford, em especial o teste do 2 dígito, para a detecção de manipulação ou fraude no conjunto de dados eleitorais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A carcinogênese epitelial ovariana tem sido foco de estudos científicos em todo o mundo desenvolvido. A angiogênese tumoral ovariana é um processo multifatorial que resulta em vários produtos pró-angiogênicos. Entre eles, o fator de crescimento vascular endotelial (VEGF) é predominante. Os objetivos deste estudo foram relacionar as dosagens do VEGF dos fluidos peritoneais, do plasma periférico e do infundíbulo pélvico aos níveis de citorredução em pacientes operadas de adenocarcinoma epitelial de ovário (CEO); formular um modelo probabilístico de citorredução e utilizar estas dosagens para estimar a probabilidade do desfecho de citorredução. Além disto, foi criada uma nova variável chamada carga de VEGF. Pelo procedimento step-wise a citorredução foi melhor descrita pela carga de VEGF, mas faltou Normalidade aos resíduos, não sendo possível a adequação de um modelo matemático. Porém, a curva ROC, forneceu uma área sob a curva de 0,84, com sensibilidade de 71,4 % e especificidade variando de 69,5 a 73,9%. O ponto de corte ótimo foi 15,52 log de picograma de carga de VEGF. A odds-ratio (OR) calculada para citorredução ótima descrita pela carga de VEGF foi de 11 (IC= 2,59 ; 46,78). No grupo com estágio avançado (III e IV), a OR foi de 6 (IC= 1,15; 31,22). Apesar do pequeno número de casos, esta nova variável pode vir a ser um auxiliar na determinação de situações onde cirurgia citorredutora deixa de ser a pedra fundamental do tratamento primário do CEO e a indução quimioterápica passe a ter o principal papel na citorredução química antes da cirugia nestes casos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A abrangente constitucionalização, o acesso ao direito, ainda que incipiente, no Brasil, o dinamismo de uma sociedade massificada e o fluxo quase instantâneo de informações e de ideias colocaram e vem colocando em xeque o Estado enquanto provedor dos direitos básicos e, dentre eles, o acesso à justiça e a correlata função jurisdicional. Autorizado magistério doutrinário vislumbrou, como se verá, apresentar o sistema brasileiro, no que concerne à estabilização da relação processual, em específico, mais desvantagens do que vantagens. Entreviu-se, assim, oportunidade de uma revisitação do sistema processual, aproveitando-se a legislação e ideário vigentes, em uma perspectiva mais profícua e no intuito de se conferir tudo aquilo e exatamente aquilo que se busca pelo processo, enfim, maior probabilidade de pacificação. Assim, o propósito da presente dissertação é estudar o aproveitamento da demanda quanto aos fatos dedutíveis pelas partes e que advenham ou sejam conhecidos no curso do processo como meio, então, de concretização do processo justo, um processo balizado por garantias, um processo humanizado e conforme os reclamos da sociedade hodierna. A pesquisa se concentra na legislação, doutrina e jurisprudência brasileiras, contando, outrossim, com singelo exame de ordenamentos similares. Em paralelo, estudam-se os princípios que suportam o tema, notadamente o princípio do contraditório participativo, qualificado que é pela ampla participação dos sujeitos da crise de direito material. O trabalho procura demonstrar, enfim, que é viável a proposta no contexto de um Direito Processual afinado com os ditames constitucionais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Trocadores de calor são equipamentos muito utilizados na indústria de processos com o objetivo de modificar a temperatura e/ou o estado físico de correntes materiais. Uma rede de trocadores de calor pode ser definida como um grupo de trocadores de calor interligados, a fim de reduzir as necessidades de energia de um sistema. No entanto, durante a operação de uma rede, a eficiência térmica dos trocadores de calor diminui devido à deposição. Esse efeito promove o aumento dos custos de combustível e das emissões de carbono. Uma alternativa para mitigar este problema baseia-se no estabelecimento de uma programação das limpezas dos trocadores de calor durante a operação de rede. Este tipo de abordagem ocasiona uma situação na qual ocorre um conflito de escolha: a limpeza de um trocador de calor pode recuperar a sua eficiência térmica, mas implica custos adicionais, tais como, mão-de-obra, produtos químicos, etc. Além disso, durante a limpeza, o trocador de calor tem de ser contornado por uma corrente de by-pass, o que aumenta temporariamente o consumo de energia. Neste contexto, o presente trabalho tem como objetivo explorar diferentes técnicas de otimização envolvendo métodos estocásticos e heurísticos. Com este objetivo foi desenvolvido um conjunto de códigos computacionais integrados que envolvem a simulação pseudo-estacionária do comportamento da rede relacionado com incrustações e a otimização da programação das limpezas deste tipo de sistema. A solução do problema indica os períodos de tempo para a limpeza de cada trocador de calor. Na abordagem estocástica empregada, os parâmetros do algoritmo genético, como probabilidade de crossover e probabilidade de mutação, foram calibrados para o presente problema. A abordagem heurística desenvolvida se deu através da sequência do conjunto de movimentos zero, um e dois. De forma alternativa, desenvolveu-se a metodologia heurística recursiva na qual os conjuntos de movimentos um e dois foram empregados recursivamente. Também foi desenvolvida a abordagem híbrida que consistiu em diferentes combinações da metodologia estocástica e heurística. A análise comparativa entre as metodologias empregadas teve como objetivo avaliar a abordagem mais adequada para o presente problema da programação das limpezas em termos de função objetivo e esforço computacional. O desempenho da abordagem proposta foi explorado através de uma série de exemplos, incluindo uma refinaria real brasileira. Os resultados foram promissores, indicando que as técnicas de otimização analisadas neste trabalho podem ser abordagens interessantes para operações que envolvam redes de trocadores de calor. Dentre as abordagens de otimização analisadas, a metodologia heurística desenvolvida no presente trabalho apresentou os melhores resultados se mostrando competitiva frente às abordagens comparadas da literatura

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação aplica a regularização por entropia máxima no problema inverso de apreçamento de opções, sugerido pelo trabalho de Neri e Schneider em 2012. Eles observaram que a densidade de probabilidade que resolve este problema, no caso de dados provenientes de opções de compra e opções digitais, pode ser descrito como exponenciais nos diferentes intervalos da semireta positiva. Estes intervalos são limitados pelos preços de exercício. O critério de entropia máxima é uma ferramenta poderosa para regularizar este problema mal posto. A família de exponencial do conjunto solução, é calculado usando o algoritmo de Newton-Raphson, com limites específicos para as opções digitais. Estes limites são resultados do princípio de ausência de arbitragem. A metodologia foi usada em dados do índice de ação da Bolsa de Valores de São Paulo com seus preços de opções de compra em diferentes preços de exercício. A análise paramétrica da entropia em função do preços de opções digitais sínteticas (construídas a partir de limites respeitando a ausência de arbitragem) mostraram valores onde as digitais maximizaram a entropia. O exemplo de extração de dados do IBOVESPA de 24 de janeiro de 2013, mostrou um desvio do princípio de ausência de arbitragem para as opções de compra in the money. Este princípio é uma condição necessária para aplicar a regularização por entropia máxima a fim de obter a densidade e os preços. Nossos resultados mostraram que, uma vez preenchida a condição de convexidade na ausência de arbitragem, é possível ter uma forma de smile na curva de volatilidade, com preços calculados a partir da densidade exponencial do modelo. Isto coloca o modelo consistente com os dados do mercado. Do ponto de vista computacional, esta dissertação permitiu de implementar, um modelo de apreçamento que utiliza o princípio de entropia máxima. Três algoritmos clássicos foram usados: primeiramente a bisseção padrão, e depois uma combinação de metodo de bisseção com Newton-Raphson para achar a volatilidade implícita proveniente dos dados de mercado. Depois, o metodo de Newton-Raphson unidimensional para o cálculo dos coeficientes das densidades exponenciais: este é objetivo do estudo. Enfim, o algoritmo de Simpson foi usado para o calculo integral das distribuições cumulativas bem como os preços do modelo obtido através da esperança matemática.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho apresenta um estudo referente à aplicação da abordagem Bayesiana como técnica de solução do problema inverso de identificação de danos estruturais, onde a integridade da estrutura é continuamente descrita por um parâmetro estrutural denominado parâmetro de coesão. A estrutura escolhida para análise é uma viga simplesmente apoiada do tipo Euler-Bernoulli. A identificação de danos é baseada em alterações na resposta impulsiva da estrutura, provocadas pela presença dos mesmos. O problema direto é resolvido através do Método de Elementos Finitos (MEF), que, por sua vez, é parametrizado pelo parâmetro de coesão da estrutura. O problema de identificação de danos é formulado como um problema inverso, cuja solução, do ponto de vista Bayesiano, é uma distribuição de probabilidade a posteriori para cada parâmetro de coesão da estrutura, obtida utilizando-se a metodologia de amostragem de Monte Carlo com Cadeia de Markov. As incertezas inerentes aos dados medidos serão contempladas na função de verossimilhança. Três estratégias de solução são apresentadas. Na Estratégia 1, os parâmetros de coesão da estrutura são amostrados de funções densidade de probabilidade a posteriori que possuem o mesmo desvio padrão. Na Estratégia 2, após uma análise prévia do processo de identificação de danos, determina-se regiões da viga potencialmente danificadas e os parâmetros de coesão associados à essas regiões são amostrados a partir de funções de densidade de probabilidade a posteriori que possuem desvios diferenciados. Na Estratégia 3, após uma análise prévia do processo de identificação de danos, apenas os parâmetros associados às regiões identificadas como potencialmente danificadas são atualizados. Um conjunto de resultados numéricos é apresentado levando-se em consideração diferentes níveis de ruído para as três estratégias de solução apresentadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O propósito da tese é analisar em que circunstâncias presidentes brasileiros recorrem a mecanismos de controle político sobre a burocracia pública. O argumento central é que o recurso presidencial a nomeações políticas, decretos regulamentares detalhados e criação de órgãos públicos centralizados na Presidência deverá variar em função de fatores políticos e características das coalizões de governo. Por meio de nomeações políticas, presidentes podem monitorar o comportamento de servidores públicos sob a influência indesejada de ministros do gabinete. Com decretos regulamentares detalhados podem reduzir a autonomia decisória de servidores públicos na interpretação de leis vagas. Por fim, por meio da criação de órgãos públicos centralizados na Presidência, podem gerar condições mais favoráveis ao futuro controle da burocracia pública. O propósito da tese será desdobrado em três problemas de pesquisa, com desenhos orientados para variáveis. O primeiro, desenvolvido no primeiro capítulo, aborda como a heterogeneidade política da coalizão afeta o controle presidencial sobre a burocracia pública por meio de nomeações políticas. O segundo problema, discutido no capítulo seguinte, analisa como a rotatividade ministerial e a demanda pela implementação interministerial de uma mesma lei afetam o grau de detalhamento de decretos regulamentares. Por fim, o terceiro problema de pesquisa, abordado no último capítulo, avalia como a composição heterogênea dos gabinetes afeta a criação de burocracias centralizadas na Presidência da República. Por meio de métodos estatísticos, foram estimados modelos de regressão linear multivariada a fim de analisar os determinantes 1. das nomeações políticas e 2. do grau de detalhamento dos decretos regulamentares, bem como modelos de regressão logística binária para avaliar a probabilidade de centralização presidencial na criação de órgãos públicos. A politização da burocracia federal tende a aumentar quando o conflito entre parceiros da coalizão é maior, uma alternativa presidencial às orientações ministeriais indesejadas sobre a burocracia pública. Decretos regulamentares tendem a ser mais detalhados quando ministérios são mais voláteis e quando há implementação interministerial, uma alternativa presidencial à autonomia da burocracia pública. Por fim, a centralização tende a crescer quando o conflito de políticas entre presidente e ministros é maior, uma saída às orientações ministeriais nocivas às preferências do presidente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho tem por objetivo propor um modelo de pensamento projetual que oriente o designer de experiências interativas no formato de websites. Baseia-se em um corpo teórico e diretrizes adequadas para estimular a manutenção da atividade do usuário e o prolongamento da experiência interativa no tempo, aumentando a probabilidade da ocorrência de momentos memoráveis e emocionalmente positivos ao interator, sem prejuízo à usabilidade do sistema. Esta abordagem se afasta do paradigma de projeto voltado para o cumprimento de objetivos e tarefas, no qual procura-se reduzir o tempo de interação aumentando a produtividade do interator. Ao contrário, aqui se propõe um olhar voltado para o engajamento em uma atividade, sendo esta o fim em si.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A segmentação dos nomes nas suas partes constitutivas é uma etapa fundamental no processo de integração de bases de dados por meio das técnicas de vinculação de registros. Esta separação dos nomes pode ser realizada de diferentes maneiras. Este estudo teve como objetivo avaliar a utilização do Modelo Escondido de Markov (HMM) na segmentação nomes e endereços de pessoas e a eficiência desta segmentação no processo de vinculação de registros. Foram utilizadas as bases do Sistema de Informações sobre Mortalidade (SIM) e do Subsistema de Informação de Procedimentos de Alta Complexidade (APAC) do estado do Rio de Janeiro no período entre 1999 a 2004. Uma metodologia foi proposta para a segmentação de nome e endereço sendo composta por oito fases, utilizando rotinas implementadas em PL/SQL e a biblioteca JAHMM, implementação na linguagem Java de algoritmos de HMM. Uma amostra aleatória de 100 registros de cada base foi utilizada para verificar a correção do processo de segmentação por meio do modelo HMM.Para verificar o efeito da segmentação do nome por meio do HMM, três processos de vinculação foram aplicados sobre uma amostra das duas bases citadas acima, cada um deles utilizando diferentes estratégias de segmentação, a saber: 1) divisão dos nomes pela primeira parte, última parte e iniciais do nome do meio; 2) divisão do nome em cinco partes; (3) segmentação segundo o HMM. A aplicação do modelo HMM como mecanismo de segmentação obteve boa concordância quando comparado com o observador humano. As diferentes estratégias de segmentação geraram resultados bastante similares na vinculação de registros, tendo a estratégia 1 obtido um desempenho pouco melhor que as demais. Este estudo sugere que a segmentação de nomes brasileiros por meio do modelo escondido de Markov não é mais eficaz do que métodos tradicionais de segmentação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Processos de produção precisam ser avaliados continuamente para que funcionem de modo mais eficaz e eficiente possível. Um conjunto de ferramentas utilizado para tal finalidade é denominado controle estatístico de processos (CEP). Através de ferramentas do CEP, o monitoramento pode ser realizado periodicamente. A ferramenta mais importante do CEP é o gráfico de controle. Nesta tese, foca-se no monitoramento de uma variável resposta, por meio dos parâmetros ou coeficientes de um modelo de regressão linear simples. Propõe-se gráficos de controle χ2 adaptativos para o monitoramento dos coeficientes do modelo de regressão linear simples. Mais especificamente, são desenvolvidos sete gráficos de controle χ2 adaptativos para o monitoramento de perfis lineares, a saber: gráfico com tamanho de amostra variável; intervalo de amostragem variável; limites de controle e de advertência variáveis; tamanho de amostra e intervalo de amostragem variáveis; tamanho de amostra e limites variáveis; intervalo de amostragem e limites variáveis e por fim, com todos os parâmetros de projeto variáveis. Medidas de desempenho dos gráficos propostos foram obtidas através de propriedades de cadeia de Markov, tanto para a situação zero-state como para a steady-state, verificando-se uma diminuição do tempo médio até um sinal no caso de desvios pequenos a moderados nos coeficientes do modelo de regressão do processo de produção. Os gráficos propostos foram aplicados a um exemplo de um processo de fabricação de semicondutores. Além disso, uma análise de sensibilidade dos mesmos é feita em função de desvios de diferentes magnitudes nos parâmetros do processo, a saber, no intercepto e na inclinação, comparando-se o desempenho entre os gráficos desenvolvidos e também com o gráfico χ2 com parâmetros fixos. Os gráficos propostos nesta tese são adequados para vários tipos de aplicações. Neste trabalho também foi considerado características de qualidade as quais são representadas por um modelo de regressão não-linear. Para o modelo de regressão não-linear considerado, a proposta é utilizar um método que divide o perfil não-linear em partes lineares, mais especificamente, um algoritmo para este fim, proposto na literatura, foi utilizado. Desta forma, foi possível validar a técnica proposta, mostrando que a mesma é robusta no sentido que permite tipos diferentes de perfis não-lineares. Aproxima-se, portanto um perfil não-linear por perfis lineares por partes, o que proporciona o monitoramento de cada perfil linear por gráficos de controle, como os gráficos de controle desenvolvidos nesta tese. Ademais apresenta-se a metodologia de decompor um perfil não-linear em partes lineares de forma detalhada e completa, abrindo espaço para ampla utilização.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O gerenciamento do tempo nos projetos de construção civil usualmente utiliza algoritmos determinísticos para o cálculo dos prazos de finalização e algoritmos PERT para avaliação da probabilidade de o mesmo terminar até uma determinada data. Os resultados calculados pelos algoritmos tradicionais possuem defasagens nos prazos se comparados aos encontrados na realidade o que vem fazendo com que a simulação venha se tornando uma ferramenta cada vez mais utilizada no gerenciamento de projetos. O objetivo da dissertação é estudar o problema dos prazos de finalização dos projetos desenvolvendo novas técnicas de cálculo que reflitam melhor os prazos encontrados na vida real. A partir disso é criada uma ferramenta prática de gerenciamento do tempo de atividades de projetos de construção enxuta baseada em planilha eletrônica onde serão utilizadas técnicas de simulação a eventos discretos, com base em distribuições de probabilidade como, por exemplo, a distribuição beta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A esquistossomose acomete 207 milhões de pessoas, com mais de 200 mil mortes anuais. Seu principal agente etiológico é o helminto Schistosoma e o principal modelo experimental, o camundongo. Linhagens de camundongos selecionadas geneticamente para susceptibilidade (TS) e resistência (TR) a tolerância imunológica constituem bons modelos para o estudo da resposta imunológica específica e inespecífica nas infecções. O objetivo deste trabalho foi caracterizar a infecção experimental por S. mansoni nestes camundongos, evidenciando a imunopatologia por diversos parâmetros na fase aguda da infecção. TR e TS não diferiram quanto a penetração de cercárias, recuperação de vermes adultos, fecundidade/produtividade de ovos das fêmeas de S. mansoni, mas predominaram ovos mortos em TS. Quanto maior o número de casais, maior a probabilidade de troca de casais e regressão sexual da fêmea, além de pequena redução da produtividade de ovos. Análise ultraestrutural dos parasitos machos recuperados de TS apresentaram tubérculos edemaciados, espinhos encurtados e em menor densidade que os parasitos dos TR. O tegumento dos parasitos recuperados de TS apresentou-se desorganizado, intensamente vacuolizado e com tendência a se desprender da superfície e espinhos internalizados e células vitelínicas desorganizadas. TS desenvolveram granulomas hepáticos grandes, com fibras radiais e predomínio do estágio exsudativo-produtivo com características de fase produtiva (EP/P), enquanto camundongos TR desenvolveram granulomas menores, com fibras concêntricas e predomínio de granulomas exsudativo-produtivos. TS desenvolveu hepatomegalia mais acentuada na fase aguda da infecção e exacerbada esplenomegalia na fase crônica. A aspartato aminotransferase mais elevada nos TR foi coerente com a acentuada histólise nos granulomas iniciais dos TR. É possível que a histólise menor em TS tenha contribuído para sua intensa hepatomegalia na fase aguda. Leucócitos totais séricos aumentaram em TS, nas fases aguda e crônica, mas não em TR. TS apresentaram anemia durante a fase crônica da infecção, possivelmente devido ao desvio na hematopoiese medular para a produção de leucócitos ou apoptose das hemácias. A mieloperoxidase neutrofílica hepática e no íleo foi maior em TS e a peroxidase de eosinófilos foi mais elevada no íleo do TS. Ambas as linhagens produziram IFN-γ, mas os níveis funcionais de IFN-γ foram diferentes nas duas linhagens em cultura de células. É possível que a imunopatologia hepática grave na linhagem TS possa estar relacionada aos altos títulos IFN-γ. TS produziu IL-10 em maior quantidade, entretanto esta citocina não foi capaz de regular o crescimento exacerbado dos granulomas hepáticos. Altos títulos de IL-4 na linhagem TS também são coerentes com a exacerbação dos granulomas, pois, como a IL-13, a IL-4 induz síntese de colágeno e está relacionada ao desenvolvimento da fibrose no granuloma esquistossomótico. Observamos redução do percentual relativo de células T CD4+ hepáticas de animais infectados em ambas as linhagens e redução percentual nas subpopulações de linfócitos B na medula óssea (precursores, linfócitos B imaturos, maduros e plasmócitos) mais acentuada em TS que em TR, possivelmente devido a extensa mobilização de B imaturos induzida pela inflamação ou desvio da hematopoiese para síntese de granulócitos em TS. Quantitativamente, TR não alterou suas subpopulações de linfócitos B. TS e TR são bons modelos para estudo da resposta imunológica na infecção esquistossomótica experimental. Novos estudos são necessários para confirmar nossas propostas e compreender os mecanismos envolvidos na diferença da resposta imunológica dessas linhagens na relação schistosoma-hospedeiro.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A partir do consenso já existente, de que o desenvolvimento urbano é responsável, em parte, pelo desequilíbrio ambiental predominante nas cidades mais populosas, nas quais a administração dos resíduos gerados torna-se um grande desafio, este estudo foi realizado com a finalidade de desenvolver um modelo de gerenciamento para os resíduos de poda de árvores de espaços públicos, visando a utilização do material podado, considerado de boa qualidade, o que minimizaria a disposição de resíduos em aterros sanitários. Para tanto, foi desenvolvido um modelo diferenciado do ponto de vista de legal, gerencial, tecnológico e econômico, que pudesse servir de base à pesquisa e gerar estratégias para beneficiar o meio ambiente. A Unidade de Conservação, que pertence à Fundação Parques e Jardins da Prefeitura da Cidade do Rio de Janeiro, localizada na Taquara, foi analisada no Estudo de Caso. As espécies arbóreas que produzem maior volume de poda nessa seção foram selecionadas de modo que fosse possível o seu aproveitamento econômico-ecológico. Concluiu-se que há uma inviabilidade para segregação dos resíduos de poda por parte da Fundação Parques e Jardins e que os mesmos poderiam ser transferidos diretamente para o aterro receptor, em fase de encerramento de atividades, sem custos excedentes. Foi feita uma apreciação especial do Centro de Tratamento de Resíduos Sólidos de Gericinó, por ser grande receptor dos resíduos produzidos nas operações de manejo da área em evidência. Foi elaborada a proposta de criação de uma Usina Verde nas áreas já desativadas do aterro, como forma complementar ao processo de revitalização da área aterrada após o término de suas atividades. Esta ação contemplaria a região com um bosque, onde seriam absorvidos todos os produtos dos resíduos de poda. Haveria, também, a probabilidade de utilização operacional dos catadores nas etapas de obtenção de compostos orgânicos, cobertura morta e equipamentos paisagísticos entre outros.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este é um estudo transversal feito com pacientes mulheres que compareceram ao Setor de Endoscopia Urológica e Urodinâmica do Serviço de Urologia do Hospital Universitário Pedro Ernesto HUPE entre dezembro de 2009 e dezembro de 2012, para a realização de estudo urodinâmico, com encaminhamento médico e agendamento prévio para investigação de queixa de incontinência urinária. O estudo foi realizado nas pacientes do sexo feminino, com idade entre 23 e 86 anos e com queixa de incontinência urinária nao complicada. Os dados utilizados nesse estudo têm três origens: (1) a avaliação primária formada pelo conjunto dos questionário de perda por esforço e ou urgência e International Consultation on Incontinence Questionnaire Short Form (ICIQ-SF) e história padronizada; (2) avaliação médica, realizada pelo médico residente; e (3) avaliação urodinâmica, resultado do estudo urodinâmico conduzido por médico residente, com supervisão e laudos feitos por um dos professores do serviço. O objetivo do trabalho foi analisar se o uso de métodos mais simples poderia diagnosticar incontinência urinária não complicada sem a necessidade de realizar a avaliação urodinâmica. Os nossos achados mostraram que entre a avaliação primária e a médica há elevada sensibilidade e especificidade além de forte concordância. O estudo urodinâmico tem menor probabilidade de fazer o diagnostico de IUM e maior frequencia de falso negativo. Os nossos achados fortalecem a indicação de uma abordagem primária antes de intervenções mais invasivas e dispendiosas como a avaliação urodinâmica. A realização de uma avaliação simplificada pode fornecer informações suficientes para começar um tratamento medicamentoso e fisioterapêutico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A síndrome de imunodeficiência adquirida (AIDS) é um problema de saúde pública que alcançou grandes proporções. Na ausência de uma vacina eficaz ou tratamento efetivo para a doença, esforços têm ser concentrados na prevenção. As políticas de saúde adotadas pelo governo brasileiro têm resultado em estabilização da enfermidade no país na faixa etária mais jovem, muito embora essa tendência não venha acontecendo nos outros grupos etários mais velhos. Verificar a incidência da AIDS em indivíduos idosos, no município de Niterói, RJ, de acordo com sexo, idade, período e coorte de nascimento de 1982-2011, além de analisar a dinâmica espacial da epidemia de AIDS em idosos (indivíduos com 60 anos ou mais) no estado do Rio de Janeiro no período de 1997-2011, são os objetivos deste estudo. Os dados da população por idade, sexo e grupo, foram obtidos a partir de: censos populacionais, contagem da população (1996), projeções intercensitárias, informações do Sistema de Informações de Agravos de Notificação, de Mortalidade e de Controle de Exames Laboratoriais. As taxas de incidência por 100 000 foram calculadas para as unidades geográficas através da contagem do número de novos casos de AIDS em indivíduos com 60 anos ou mais e tamanho da população do município no mesmo grupo etário. Para avaliar a dependência espacial das taxas foi calculado o índice de Moran global. Moran Mapas foram construídos para mostrar regimes de correlação espacial potencialmente distintos em diferentes subregiões. Distribuições de probabilidade e método Bayes empírico foram aplicados para a correção das taxas de incidência da AIDS. Ocorreram 575 casos de AIDS em residentes de Niterói com ≥50 anos de idade. Tendência crescente de taxas de incidência ao longo do tempo foi detectada em ambos os sexos. No estudo da dinâmica espacial da incidência da AIDS em idosos, Rio de Janeiro, no período de 1997 a 2011, as taxas entre homens e mulheres permaneceram flutuantes ao longo de todo o período. Não foi possível detectar correlação significativa global, usando o índice global de Moran. Na costa sudeste do Estado, onde se localizam as grandes áreas metropolitanas (Rio de Janeiro e Niterói), observaram-se grupos de cidades com taxas de até 20 casos por 100 000 hab. Esta concentração se torna mais pronunciada em períodos subsequentes, quando parece ocorrer propagação gradual da epidemia da costa sul até o norte do Rio de Janeiro.