214 resultados para Biomateriais - Teses de mestrado


Relevância:

20.00% 20.00%

Publicador:

Resumo:

As aves silvestres são importantes reservatórios de vírus que podem acometer as aves domésticas. O monitoramento da circulação viral em aves silvestres é de extrema importância para garantir a sanidade dos plantéis avícolas. O presente estudo teve como objetivo 1) comparar dois testes moleculares de RT-PCR para a detecção dos vírus da família Paramyxoviridae em aves silvestres e sinantrópicas; 2) caracterizar os vírus detectados nestas amostras. Dois testes de RT-PCR e testes específicos de RT-PCR em tempo real (RRT-PCR) para o vírus da doença de Newcastle (NDV) e o metapneumovírus aviário (aMPV) foram utilizados para comparar o limite de detecção entre as amostras. As amostras de aves silvestres foram testadas por dois testes de RT-PCR. Um pequeno fragmento da região do sítio de clivagem do gene F das amostras positivas foi sequenciado. Os testes de RT-PCR foram validados com sucesso, mas apresentaram diferenças entre os limites de detecção quando comparados aos testes específicos de RRT-PCR utilizando diferentes vírus. No total, 100 amostras de aves (suabes) foram testados pelo teste RT-PCR que apresentou um limite de detecção similar entre os diferentes agentes virais. O teste selecionado foi capaz de detectar duas amostras de aves silvestres que foram também detectadas pelo testes específico para NDV e relacionadas às amostras de NDV vacinais do genótipo II da classe II referentes aos vírus de NDV lentogênico (113RQGR ↓ L117). Nosso estudo demonstra a deficiência na biosseguridade adotada pelos sistemas avícolas por permitir a saída dos vírus vacinais para as aves silvestres

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Técnicas analíticas empregadas para a quantificação do teor de lignina em plantas forrageiras, atualmente em uso, são questionáveis quanto às suas acurácias. O método lignina detergente ácido (LDA), que é um dos métodos mais utilizado em Ciência Animal e Agronomia, apresenta algumas falhas, particularmente devido à parcial solubilização da lignina durante a preparação da fibra em detergente ácido (FDA). A lignina Klason (LK), outro método muito usado, apresenta o inconveniente de mensurar a proteína da parede celular como sendo lignina. Em ambos os procedimentos recomenda-se também mensurar cinzas nos resíduos de lignina. A quantificação da concentração de lignina pelo método espectrofotométrico lignina brometo de acetila (LBA) vem ganhando interesse de pesquisadores no Brasil e no exterior. Nesta metodologia, a lignina da planta contida na preparação parede celular (PC) é solubilizada numa solução a 25% de brometo de acetila em ácido acético e a absorbância mensurada é com luz UV a 280 nm. O valor da absorbância é inserido numa equação de regressão e a concentração de lignina é obtida. Para que esta técnica analítica seja mais aceita pelos pesquisadores, ela deve ser, obviamente, convincente e atrativa. O presente trabalho analisou alguns parâmetros relacionados à LBA em 7 gramíneas e 6 leguminosas, em dois estádios de maturidade. Dentre as diferentes temperaturas de pré-secagem, os resultados indicaram que os procedimentos de 55°C com ventilação e liofilização podem ser utilizados com a mesma eficácia. As temperaturas de 55°C sem ventilação e 80°C sem ventilação não são recomendadas, pois aumentaram os valores de FDA e LDA, possivelmente devido ao surgimento de artefatos de técnica como os compostos de Maillard. No método LBA os valores menores das amostras de leguminosas chamaram a atenção e colocaram em questão se a lignina destas plantas seria menos solúvel no reagente brometo de acetila. Dentre algumas alterações na metodologia da técnica LBA, a utilização do moinho de bolas (para diminuir o tamanho particular) nas amostras de PC não mostrou efeito; a hipótese era melhorar a solubilização da lignina usando partículas menores. O uso de um ultrasonicador, que aumenta a vibração das moléculas e assim, facilitaria a solubilização da lignina no reagente brometo de acetila, melhorou a solubilização da lignina em cerca de 10%, tanto nas gramíneas como nas leguminosas. Foi acoplado um ensaio biológico como referência, a degradabilidade in vitro da matéria seca (DIVMS); e como a lignina está intimamente associada à estrutura fibrosa da parede celular, também foi feito um ensaio de degradabilidade in vitro da fibra em detergente neutro (DIVFDN). Os resultados confirmaram o efeito da maturidade, reduzindo a degradabilidade nas plantas mais maduras, e que o teor de lignina de leguminosas é realmente inferior ao de gramíneas. Os resultados de degradabilidade apresentaram coeficientes de correlação mais elevados com o método LBA, quando foi empregada a técnica do ultrasom; o método LK mostrou os menores coeficientes. Também testou-se, com sucesso, a utilização da FDN, como preparação fibrosa, ao invés de PC. A razão é simples: enquanto que a FDN é amplamente conhecida, a preparação PC não o é. Inquestionável que esta manobra facilitará substancialmente a divulgação desse método, tornando-a mais aceitável pela comunidade científica

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo deste trabalho foi avaliar os efeitos da inclusão de caroço de algodão e vitamina E em dietas para bovinos confinados por 83, 104 e 111 dias sobre as características da carcaça, qualidade da carne e características sensoriais da carne in natura e de hambúrgueres. Foram utilizados 54 bovinos da raça Nelore, machos, não castrados, com média de 350 kg ± 30 kg de peso vivo inicial e 24 meses de idade, divididos em três grupos de acordo com o peso vivo inicial e distribuídos em três dietas: dieta sem inclusão de caroço de algodão (C), dieta contendo 30% MS de caroço de algodão (CA) e dieta contendo 30% MS de caroço de algodão e 500 UI de vitamina E/kg de matéria seca da ração (CAE). As dietas empregadas foram compostas de diferentes concentrados, incluindo milho grão seco, polpa cítrica, bagaço de cana cru e farelo de soja, com relação volumoso:concentrado de 14:86 e média de 16% PB nas três dietas. Os animais abatidos aos 83 dias de confinamento eram correspondentes ao grupo de maior peso vivo, já os animais mais leves foram abatidos aos 111 dias de confinamento. O experimento foi em arranjo fatorial 3 x 3, considerando três dietas e três períodos de confinamento, totalizando 9 tratamentos. Os animais que permaneceram em confinamento por mais tempo apresentaram maior rendimento de carcaça (56,33%) e carnes mais macias (3,02 kg). As dietas CA e CAE resultaram em menor força de cisalhamento (3,15 e 3,31 kg, respectivamente). A inclusão de vitamina E se mostrou indiferente para a cor e TBARS, em relação à dieta CA. A inclusão do caroço de algodão em dietas para bovinos não influenciou no teor de ácidos graxos saturados, porém aumentou os teores de alguns ácidos graxos poli-insaturados (AGPI) nas carnes. Por outro lado, houve um aumento linear nos níveis de ácidos graxos saturados (AGS) à medida que aumentaram os dias de confinamento. Em relação às características sensoriais, no teste descritivo, as carnes in natura dos animais alimentados com CA e CAE foram mais macias e suculentas (P < 0,05), porém apresentaram um sabor mais intenso e os provadores treinados detectaram um sabor estranho nestas carnes (P < 0,05). No entanto, para o teste afetivo, apenas foi detectado sabor estranho para os hambúrgueres provenientes da dieta CA, os atributos aroma e aroma estranho não foram influenciados pelas dietas (P > 0,05). Por meio do teste discriminativo, foi observado que os hambúrgueres provenientes de animais alimentados com CA e CAE por 104 e 111 dias de confinamento apresentaram diferença em relação ao sabor quando comparados aos hambúrgueres de animais do grupo C destes mesmos períodos, e que os hambúrgueres da dieta CA não apresentaram diferença de sabor quanto aos dias de confinamento. A inclusão de 30% MS de caroço de algodão mostrou ser uma boa alternativa para melhorar as características físico-químicas da carne e seu perfil de ácidos graxos, entretanto atribui um sabor estranho ao produto final, independente do período de confinamento, sendo perceptível ao consumidor e reduzindo aceitabilidade. Ao longo dos dias de confinamento, a carne dos animais se torna menos saudável, do ponto de vista de composição lipídica, ao consumo humano. A adição de 500 UI de vitamina E em dietas contendo caroço de algodão mostrou-se desnecessária

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A doença hepática gordurosa não alcoólica (DHGNA) abrange alterações desde esteatose até esteato-hepatite não alcoólica (EHNA), podendo evoluir para fibrose, cirrose e carcinoma hepatocelular. A DHGNA é considerada a doença hepática mais comum na atualidade e com prevalência mundial alarmante. Esta doença caracteriza-se, basicamente, pela deposição de triglicérides nos hepatócitos, podendo evoluir com inflamação e fibrose, e está intimamente associada com resistência à insulina (RI), diabetes mellitus tipo 2 e obesidade. Os hepatócitos representam as principais células hepáticas e se comunicam através de junções do tipo gap, formadas principalmente por conexina 32 (Cx32). Esta proteína apresenta importante função no controle da homeostase tecidual, regulando processos fisiológicos e tem sido associada como agente protetor na hepatocarcinogênese e outros processos patológicos, porem pouco se sabe sobre sua participação na DHGNA. Sendo assim, o objetivo deste trabalho foi avaliar a participação da Cx32 na fisiopatogênese da DHGNA, utilizando camundongos knockout para Cx32 (Cx32-KO) submetidos a uma dieta hiperlipídica deficiente em colina. Foram analisados dados biométricos, histopatológicos, função hepática, RI, citocinas inflamatórias, adipocinas, estresse oxidativo, peroxidação lipídica e a expressão de genes envolvidos na DHGNA. Os animais Cx32-KO apresentaram maior acumulo de triglicérides hepáticos em relação aos animais selvagens e, consequentemente, maior peso absoluto e relativo do fígado. Adicionalmente, apresentaram maior inflamação hepática demonstrado pela exacerbação da citocina TNF-α e supressão da IL-10, maior dano hepatocelular indicado pelo aumento das enzimas AST e ALT, aumento da peroxidação lipídica e alterações na expressão de genes chaves na fisiopatogênese da DHGNA, como SREBP1c. No entanto, não houve diferença nos marcadores histopatológicos, RI e estresse oxidativo hepático. Por fim, os animais Cx32-KO apresentaram maior produção de leptina e adiponectina no tecido adiposo. Todos esses resultados revelam que a Cx32 pode atuar como um agente protetor ao desenvolvimento da DHGNA, sugerindo seu potencial como novo alvo terapêutico

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta pesquisa tem como tema os discursos que circulam e estruturam o ambiente de trabalho nas empresas. De forma geral, busca-se compreender a lógica administrativa que, no limite, exerce uma condução da subjetividade dos trabalhadores. Temos por objetivos: 1) identificar como nas escolas do pensamento administrativo do século XX o engajamento do trabalho é requerido dos trabalhadores; 2) pretendemos discutir uma possível caracterização do discurso e dos usos da administração, como campo de conhecimento sobre o trabalho, dentro das organizações. Para tanto, estabelecemos como panorama teórico-metodológico nas ideias centrais de Michel Foucault em suas análises sobre a funcionalidade do poder e seus dispositivos. Propusemos uma perspectiva arqueogenealógica para a estudar o tema trabalho por meio da lógica da administração e do engajamento. Para estruturar esta análise, selecionamos disciplinas oferecidas e examinamos ementas e referências de leituras nos cursos de graduação da Escola de Administração de Empresas de São Paulo da Fundação Getúlio Vargas (EAESP-FGV) e do curso de Administração da Faculdade de Economia, Administração e Contabilidade da Universidade de São Paulo (FEA-USP). Diante do contato com a discursividade administrativa pudemos formular algumas reflexões. A Administração de Empresas é a ciência da demonstração, pautada na dominação da realidade por uma dita eficiência. É o que se faz produtivo da realidade ou o que se produz nela que se torna científico. Não há discussão, nos registros aqui investigados, de um questionamento sobre o discurso de eficiência, de melhores práticas e da localização das organizações como construções historicamente produzidas, apenas como produtoras de determinações. Não parece haver a possibilidade de desnaturalizar a empresa. A administração parece estar pautada em uma duplicação da dominação como a profissão que é moldada ao moldar o trabalho. Partimos também da análise do que se nomeia engajamento para compreender o que é requerido do trabalhador para além do contrato de trabalho e de sua produtividade material. Neste sentido, o trabalho torna-se uma experiência de educação em contínua e ininterrupta vigilância pedagógica. O efeito moral das técnicas e das provas nas correntes de pensamento da administração permite uma condução técnica e do modo de viver dos trabalhadores. Nesse sentido, a administração, propõe o aperfeiçoamento do cuidado de si no trabalho e para o trabalho. As disciplinas então se duplicam: pelo exterior, por meio da regra pautada na estrutura formal da autoridade da fábrica/empresa com o governo dos corpos; e pelo interior por meio de uma sujeição por identidade, pela estilização da vida

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O 99mTc é o radionuclídeo mais utilizado em medicina nuclear. No Brasil os geradores de 99Mo/99mTc são produzidos exclusivamente pelo Centro de Radiofarmácia do IPEN-CNEN/SP, com 99Mo importado de diferentes fornecedores. O 99Mo (t1/2 = 66 h), por ser um produto de fissão do 235U, pode conter impurezas radionuclídicas prejudiciais à saúde humana. Dessa forma, para que o gerador seja utilizado de forma segura, é necessário que o 99Mo seja avaliado por ensaios de controle de qualidade e atenda à alguma especificação descrita em farmacopeia. A Farmacopeia Europeia (FE) apresenta monografia, com parâmetros (identificação, pureza radioquímica e pureza radionuclídica), métodos de análise, e limites, para avaliação da qualidade da solução de [99Mo] na forma de molibdato de sódio, que é utilizada como matéria-prima no preparo dos geradores de 99Mo/99mTc. No entanto, observa-se uma dificuldade na implementação e execução dos métodos por parte dos produtores de geradores, com pouca literatura sobre o assunto, provavelmente devido à falta de praticidade dos métodos propostos e à extensa lista de reagentes utilizados. Nesse trabalho foram avaliados vários parâmetros de qualidade do 99Mo descritos na monografia da FE. Foram estudados métodos de separação do 99Mo de suas impurezas radionuclídicas por extração em fase sólida (SPE) e por TLC. Após separação por SPE, foi proposta a quantificação de metais por ICP-OES para avaliar a porcentagem de retenção de Mo e a porcentagem de recuperação de Ru e Te e Sr em diversos tipos de cartuchos, em substituição ao uso de radiotraçadores. Observou-se que a marca de cartucho de SPE para separação do 99Mo recomendada pela FE apresentou baixa recuperação para Ru, quando comparado aos outros cartuchos de troca aniônica disponíveis no mercado. Amostras de 99Mo de diferentes fornecedores mundiais foram analisadas. Observou-se que é possível realizar a quantificação de 103Ru em amostras de 99Mo mesmo com tempos de decaimento acima de 4 semanas. Um método alternativo de separação do 99Mo do 131I por TLC apresentou resultados promissores. Não foi feita a quantificação das impurezas radionuclídicas emissoras beta e alfa. Todas as amostras analisadas apresentaram resultados dentro das especificações da FE para pureza radioquímica (>95%) e pureza radionuclídica.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Após os acidentes nucleares ocorridos no mundo, critérios e requisitos extremamente rígidos para a operação das instalações nucleares foram determinados pelos órgãos internacionais que regulam essas instalações. A partir da ocorrência destes eventos, as operadoras de plantas nucleares necessitam simular alguns acidentes e transientes, por meio de programas computacionais específicos, para obter a licença de operação de uma planta nuclear. Com base neste cenário, algumas ferramentas computacionais sofisticadas têm sido utilizadas como o Reactor Excursion and Leak Analysis Program (RELAP5), que é o código mais utilizado para a análise de acidentes e transientes termo-hidráulicos em reatores nucleares no Brasil e no mundo. Uma das maiores dificuldades na simulação usando o código RELAP5 é a quantidade de informações geométricas da planta necessárias para a análise de acidentes e transientes termo-hidráulicos. Para a preparação de seus dados de entrada é necessário um grande número de operações matemáticas para calcular a geometria dos componentes. Assim, a fim de realizar estes cálculos e preparar dados de entrada para o RELAP5, um pré-processador matemático amigável foi desenvolvido, neste trabalho. O Visual Basic for Applications (VBA), combinado com o Microsoft Excel, foi utilizado e demonstrou ser um instrumento eficiente para executar uma série de tarefas no desenvolvimento desse pré-processador. A fim de atender as necessidades dos usuários do RELAP5, foi desenvolvido o Programa de Cálculo do RELAP5 PCRELAP5 onde foram codificados todos os componentes que constituem o código, neste caso, todos os cartões de entrada inclusive os opcionais de cada um deles foram programados. Adicionalmente, uma versão em inglês foi criada para PCRELAP5. Também um design amigável do PCRELAP5 foi desenvolvido com a finalidade de minimizar o tempo de preparação dos dados de entrada e diminuir os erros cometidos pelos usuários do código RELAP5. Nesse trabalho, a versão final desse pré-processador foi aplicada com sucesso para o Sistema de Injeção de Emergência (SIE) da usina Angra 2.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho são feitas comparações entre os principais sinais horizontais de trânsito (Parada Obrigatória, Faixa de Pedestre e Lombada) padronizados pelo Código de Trânsito Brasileiro (CTB), com modelos alternativos que sofreram variações na forma e/ou cor, alguns deles já usados em algumas cidades brasileiras, com o objetivo de identificar se essas alterações melhoram ou não a percepção do sinal (impacto visual). Para isso são utilizados dois métodos da Psicofísica. Numa primeira etapa a análise é feita utilizando o Método de Comparação aos Pares, para um grupo de quatro estímulos para cada sinal estudado. Em seguida, aplicando o Método de Estimativa das Categorias, foi avaliado o impacto visual do sinal horizontal de Parada Obrigatória quanto à presença ou ausência de orla externa. Por fim, também pelo Método de Comparação aos Pares, foi avaliado o impacto visual causado pelo uso conjugado de sinais horizontais em cruzamentos não semaforizados. Foram estudadas as combinações entre os sinais de parada obrigatória, faixa de pedestres e faixa de retenção. Os resultados obtidos permitem inferir as seguintes conclusões: as alterações na forma e cor propostas para os sinais de parada obrigatória e faixa de pedestres causam maior impacto visual quando comparadas ao modelo padronizado pelo CTB mas, no caso das lombadas, a sinalização padrão mostrou-se ser mais perceptível; quanto a presença ou não da orla externa no sinal de parada obrigatória, esta demonstrou ser positiva; o uso conjugado dos sinais de parada obrigatória, faixa de pedestres e faixa de retenção é a combinação que mais desperta a atenção dos usuários.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Pesquisas sobre aplicação de borracha de pneus descartados em pavimentação asfáltica vêm sendo desenvolvidas desde a década de 1960, especialmente nos Estados Unidos e, desde o início da década de 1990, no Brasil, como alternativa para diminuição dos problemas ambientais gerados por estes resíduos sólidos. Esta pesquisa tem por objetivo avaliar o desempenho de três misturas asfálticas do tipo concreto asfáltico usinado à quente: duas empregando teores diferentes de borracha moída e óleo de xisto (CAP 40 + 12% de borracha + 10% de óleo de xisto e CAP 40 + 20% de borracha + 15% de óleo de xisto) e uma convencional. Este estudo faz parte de um programa de pesquisa coordenado pela Escola de Engenharia de São Carlos da Universidade de São Paulo (EESC-USP), Universidade Estadual de Maringá (UEM) e Petrobrás, envolvendo a execução de misturas com borracha e óleo de xisto em trechos experimentais. Foram realizadas dosagens Marshall e ensaios de resistência à tração, módulo de resiliência e fluência por compressão uniaxial estática. Os corpos-de-prova empregados nos ensaios foram moldados no teor ótimo de cimento asfáltico referente a cada uma das misturas. Constatou-se a viabilidade técnica da adição de óleo extensor para a incorporação de borracha de pneus descartados em concreto asfáltico, permitindo a obtenção de resultados satisfatórios quanto aos projetos de dosagem das misturas pelo método Marshall. Com base nos resultados dos ensaios realizados, acredita-se ser viável a execução de trechos experimentais empregando as duas misturas modificadas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo deste trabalho é avaliar a influência da variação do teor de umidade no valor do índice de suporte CBR de uma brita estabilizada granulometricamente e de seis solos coletados em rodovias do interior do Estado de São Paulo. Os seis solos estudados foram divididos em três pares, com curvas granulométricas próximas, mesma classificação HRB e USCS, sendo cada par formado por um solo de comportamento laterítico e um solo de comportamento não-laterítico. Os corpos-de-prova foram moldados na umidade ótima e massa específica seca máxima obtidos com os resultados do ensaio de Proctor normal. Os materiais foram analisados sob quatro condições de umidade: sem imersão, após alcançar metade da umidade de estabilização, após quatro e oito dias de imersão. Observou-se a distribuição da umidade interna dos corpos-de-prova para cada uma das situações. Foi analisada a influência do envelhecimento dos materiais solto e compactado por quatro dias e sem imersão, nos resultados dos ensaios de CBR. Com os resultados pôde-se correlacionar a influência da granulometria e da gênese dos materiais nos resultados dos ensaios de índice de suporte CBR nas diversas condições de umidade avaliadas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Desde o seu desenvolvimento na década de 1970 a tomografia computadorizada (TC) passou por grandes mudanças tecnológicas, tornando-se uma importante ferramenta diagnóstica para a medicina. Consequentemente o papel da TC em diagnóstico por imagem expandiu-se rapidamente, principalmente devido a melhorias na qualidade da imagem e tempo de aquisição. A dose de radiação recebida por pacientes devido a tais procedimentos vem ganhando atenção, levando a comunidade científica e os fabricantes a trabalharem juntos em direção a determinação e otimização de doses. Nas últimas décadas muitas metodologias para dosimetria em pacientes têm sido propostas, baseadas especialmente em cálculos utilizando a técnica Monte Carlo ou medições experimentais com objetos simuladores e dosímetros. A possibilidade de medições in vivo também está sendo investigada. Atualmente as principais técnicas para a otimização da dose incluem redução e/ou modulação da corrente anódica. O presente trabalho propõe uma metodologia experimental para estimativa de doses absorvidas pelos pulmões devido a protocolos clínicos de TC, usando um objeto simulador antropomórfico adulto e dosímetros termoluminescentes de Fluoreto de Lítio (LiF). Sete protocolos clínicos diferentes foram selecionados, com base em sua relevância com respeito à otimização de dose e frequência na rotina clínica de dois hospitais de grande porte: Instituto de Radiologia do Hospital das Clínicas da Faculdade de Medicina da Universidade de São Paulo (InRad) e Instituto do Câncer do Estado de São Paulo Octávio Frias de Oliveira (ICESP). Quatro protocolos de otimização de dose foram analisados: Auto mA, Auto + Smart mA, Baixa Dose (BD) e Ultra Baixa Dose (UBD). Os dois primeiros protocolos supracitados buscam redução de dose por meio de modulação da corrente anódica, enquanto os protocolos BD e UBD propõem a redução do valor da corrente anódica, mantendo-a constante. Os protocolos BD e UBD proporcionaram redução de dose de 72,7(8) % e 91(1) %, respectivamente; 16,8(1,3) % e 35,0(1,2) % de redução de dose foram obtidas com os protocolos Auto mA e Auto + Smart mA, respectivamente. As estimativas de dose para os protocolos analisados neste estudo são compatíveis com estudos similares publicados na literatura, demonstrando a eficiência da metodologia para o cálculo de doses absorvidas no pulmão. Sua aplicabilidade pode ser estendida a diferentes órgãos, diferentes protocolos de CT e diferentes tipos de objetos simuladores antropomórficos (pediátricos, por exemplo). Por fim, a comparação entre os valores de doses estimadas para os pulmões e valores de estimativas de doses dependentes do tamanho (Size Specific Dose Estimates SSDE) demonstrou dependência linear entre as duas grandezas. Resultados de estudos similares exibiram comportamentos similares para doses no reto, sugerindo que doses absorvidas pelos uma órgãos podem ser linearmente dependente dos valores de SSDE, com coeficientes lineares específicos para cada órgão. Uma investigação mais aprofundada sobre doses em órgãos é necessária para avaliar essa hipótese.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Assunto bastante abordado quando se trata de Sistemas Inteligentes de Transportes (ITS), a identificação veicular - utilizada em grande parte das aplicações de ITS deve ser entendida como um conjunto de recursos de hardware, software e telecomunicações, que interagem para atingir, do ponto de vista funcional, o objetivo de, conseguir extrair e transmitir, digitalmente, a identidade de um veículo. É feita tanto por sistemas que transmitem e recebem uma identidade digital quanto por sistemas que, instalados na infraestrutura da via, são capazes de reconhecer a placa dos veículos circulantes. Quando se trata da identificação automática por meio do reconhecimento da placa veicular, os estudos têm se concentrado sobremaneira nas tecnologias de processamento de imagens, não abordando - em sua maioria - uma visão sistêmica, necessária para compreender de maneira mais abrangente todas as variáveis que podem interferir na eficácia da identificação. Com o objetivo de contribuir para melhor entender e utilizar os sistemas de reconhecimento automático de placas veiculares, este trabalho propõe um modelo sistêmico, em camadas, para representar seus componentes. Associada a esse modelo, propõe uma classificação para os diversos tipos de falhas que podem prejudicar seu desempenho. Uma análise desenvolvida com resultados obtidos em testes realizados em campo com sistemas de identificação de placas voltados à fiscalização de veículos aponta resultados relevantes e limitações para obter correlações entre variáveis, em função dos diversos fatores que podem influenciar os resultados. Algumas entrevistas realizadas apontam os tipos de falhas que ocorrem com mais frequência durante a operação desses sistemas. Finalmente, este trabalho propõe futuros estudos e apresenta um glossário de termos, que poderá ser útil a novos pesquisadores.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

No último século, houve grande avanço no entendimento das interações das radiações com a matéria. Essa compreensão se faz necessária para diversas aplicações, entre elas o uso de raios X no diagnóstico por imagens. Neste caso, imagens são formadas pelo contraste resultante da diferença na atenuação dos raios X pelos diferentes tecidos do corpo. Entretanto, algumas das interações dos raios X com a matéria podem levar à redução da qualidade destas imagens, como é o caso dos fenômenos de espalhamento. Muitas abordagens foram propostas para estimar a distribuição espectral de fótons espalhados por uma barreira, ou seja, como no caso de um feixe de campo largo, ao atingir um plano detector, tais como modelos que utilizam métodos de Monte Carlo e modelos que utilizam aproximações analíticas. Supondo-se um espectro de um feixe primário que não interage com nenhum objeto após sua emissão pelo tubo de raios X, este espectro é, essencialmente representado pelos modelos propostos anteriormente. Contudo, considerando-se um feixe largo de radiação X, interagindo com um objeto, a radiação a ser detectada por um espectrômetro, passa a ser composta pelo feixe primário, atenuado pelo material adicionado, e uma fração de radiação espalhada. A soma destas duas contribuições passa a compor o feixe resultante. Esta soma do feixe primário atenuado, com o feixe de radiação espalhada, é o que se mede em um detector real na condição de feixe largo. O modelo proposto neste trabalho visa calcular o espectro de um tubo de raios X, em situação de feixe largo, o mais fidedigno possível ao que se medem em condições reais. Neste trabalho se propõe a discretização do volume de interação em pequenos elementos de volume, nos quais se calcula o espalhamento Compton, fazendo uso de um espectro de fótons gerado pelo Modelo de TBC, a equação de Klein-Nishina e considerações geométricas. Por fim, o espectro de fótons espalhados em cada elemento de volume é somado ao espalhamento dos demais elementos de volume, resultando no espectro total espalhado. O modelo proposto foi implementado em ambiente computacional MATLAB® e comparado com medições experimentais para sua validação. O modelo proposto foi capaz de produzir espectros espalhados em diferentes condições, apresentando boa conformidade com os valores medidos, tanto em termos quantitativos, nas quais a diferença entre kerma no ar calculado e kerma no ar medido é menor que 10%, quanto qualitativos, com fatores de mérito superiores a 90%.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A correspondência AdS/CFT é uma notável ferramenta no estudo de teorias de gauge fortemente acopladas que podem ser mapeadas em uma descrição gravitacional dual fracamente acoplada. A correspondência é melhor entendida no limite em que ambos $N$ e $\\lambda$, o rank do grupo de gauge e o acoplamento de \'t Hooft da teoria de gauge, respectivamente, são infinitos. Levar em consideração interações com termos de curvatura de ordem superior nos permite considerar correções de $\\lambda$ finito. Por exemplo, a primeira correção de acoplamento finito para supergravidade tipo IIB surge como um termo de curvatura com forma esquemática $\\alpha\'^3 R^4$. Neste trabalho investigamos correções de curvatura no contexto da gravidade de Lovelock, que é um cenário simples para investigar tais correções pois as suas equações de movimento ainda são de segunda ordem em derivadas. Esse cenário também é particularmente interessante do ponto de vista da correspondência AdS/CFT devido a sua grande classe de soluções de buracos negros assintoticamente AdS. Consideramos um sistema de gravidade AdS-axion-dilaton em cinco dimensões com um termo de Gauss-Bonnet e encontramos uma solução das equações de movimento, o que corresponde a uma black brane exibindo uma anisotropia espacial, onde a fonte da anisotropia é um campo escalar linear em uma das coordenadas espaciais. Estudamos suas propriedades termodinâmicas e realizamos a renormalização holográfica usando o método de Hamilton-Jacobi. Finalmente, usamos a solução obtida como dual gravitacional de um plasma anisotrópico fortemente acoplado com duas cargas centrais independentes, $a eq c$. Calculamos vários observáveis relevantes para o estudo do plasma, a saber, a viscosidade de cisalhamento sobre densidade de entropia, a força de arrasto, o parâmetro de jet quenching, o potencial entre um par quark-antiquark e a taxa de produção de fótons.